文档章节

Python实现获取百度贴吧主页的前十页回复数,帖子id,主题

鑢七花
 鑢七花
发布于 2016/11/17 16:15
字数 695
阅读 31
收藏 0

「深度学习福利」大神带你进阶工程师,立即查看>>>

Python实现获取百度贴吧主页的前十页回复数,帖子id,主题,并导入数据库

#!/usr/bin/python
# -*- coding:utf-8 -*-
import requests
from bs4 import BeautifulSoup
import MySQLdb
import MySQLdb.cursors
import urllib
import urllib2
import re
import sys
reload (sys)
sys.setdefaultencoding('utf-8')
 
#处理页面标签类
class Tool:
    #去除img标签,7位长空格
    removeImg = re.compile('<img.*?>| {7}|')
    #删除超链接标签
    removeAddr = re.compile('<a.*?>|</a>')
    #把换行的标签换为\n
    replaceLine = re.compile('<tr>|<div>|</div>|</p>')
    #将表格制表<td>替换为\t
    replaceTD= re.compile('<td>')
    #把段落开头换为\n加空两格
    replacePara = re.compile('<p.*?>')
    #将换行符或双换行符替换为\n
    replaceBR = re.compile('<br><br>|<br>')
    #将其余标签剔除
    removeExtraTag = re.compile('<.*?>')
    def replace(self,x):
        x = re.sub(self.removeImg,"",x)
        x = re.sub(self.removeAddr,"",x)
        x = re.sub(self.replaceLine,"\n",x)
        x = re.sub(self.replaceTD,"\t",x)
        x = re.sub(self.replacePara,"\n    ",x)
        x = re.sub(self.replaceBR,"\n",x)
        x = re.sub(self.removeExtraTag,"",x)
        #strip()将前后多余内容删除
        return x.strip()
        
#百度贴吧爬虫类
class BDTB:

    def __init__(self,baseUrl):
        self.baseURL = baseUrl
        self.tool = Tool()
        self.floor = 1
        self.file = None
        self.floorTag = 1
        
    #传入贴吧主页网址,获取贴吧主页的代码
    def getPage(self,pageNum):
        try:
            url = self.baseURL + '&pn=' + str(pageNum)
            request = urllib2.Request(url)
            response = urllib2.urlopen(request)
            #print response.read()
            return response.read().decode('utf-8')
        except urllib2.URLError, e:
            if hasattr(e,"reason"):
                print u"连接百度贴吧失败,错误原因",e.reason
                return None
                
    #传入主页代码,获取帖子
    def getTitle(self,page):
        pattern = re.compile(r'<a href="/p/.*? title="(.*?)" .*? class="j_th_tit .*?>(.*?)</a>',re
.S)
        result = re.findall(pattern,page)
        gettitles = []
        for item in result:            
            gettitle = self.tool.replace(item[1])
            gettitles.append(gettitle.encode('utf-8'))
        return gettitles

    #传入主页页码,获取帖子回复数
    def getReplay(self,page):
        pattern = re.compile(r'<span class="threadlist_rep_num center_text.*?>(.*?)</span>',re.S)
        result = re.findall(pattern,page)
        getreplays = []
        #print result
        for item in result:
            #print self.tool.replace(getreplay)
            getreplay = self.tool.replace(item)
            getreplays.append(getreplay.encode('utf-8'))            
        #print getreplays
        return getreplays
        

    #传入主页页码,获取帖子作者
    #def getAuthor(self):
        #page = self.getPage()
        #pattern = re.compile(r'<a data-field=\'.*? class="frs-author-name.*? >(.*?)</a>',re.S)
        #result = re.findall(pattern,page)
        #for item in result:
            #print item
    
    #传入主页代码,获取帖子id
    def getId(self,page):
        pattern = re.compile(r'<a href="/p/(.*?)" title=".*?" class="j_th_tit .*?>.*?</a>',re.S)
        result = re.findall(pattern,page)
        getids = []
        for item in result:
            #print self.tool.replace(getid)
            getid = self.tool.replace(item)
            getids.append(getid.encode('utf-8'))            
        return getids            

    def writeDate(self,replay,id,title):
        for (replay, id, title) in zip(replay,                                                                                                                                                                                                                                                                       conn = MySQLdb.connect(host='192.168.1.181',user='root',passwd='redhat',db='tiebadata',por
t = 3306,charset = 'utf8')
            cur = conn.cursor()
            cur.execute('insert into zhuti(replay, id, title) values(%s, %s, %s)',(replay, id, title))
            print "success connect!"
            conn.commit()
            cur.close()
            conn.close()
    def start(self,title):
        indexPage = self.getPage(0)
        gettitle = self.getTitle(indexPage)
        if indexPage == None:
            print "URL已失效,请重试"
            return
        try:
            print "获取贴吧前十页帖子"
            for i in range(0,10):
                print "正在写入第" + str(i) + "页数据"
                page = self.getPage(i*50)
                replay = self.getReplay(page)
                id = self.getId(page)
                title = self.getTitle(page)
                self.writeDate(replay,id,title)
        except IOError,e:
            print "写入异常,原因" + e.message
        finally:
            print "写入任务完成"
            
        
print u"请输入贴吧名:"
baseURL = 'http://tieba.baidu.com/f?kw=' + raw_input(u'') + '&fr=ala0&tpl=5'
print u"请再一次输入贴吧名称:"
title = raw_input(u'')
bdtb = BDTB(baseURL)
bdtb.start(title)

目前不是很完善,后续将加入自动建表的功能

 

鑢七花
粉丝 5
博文 15
码字总数 17605
作品 0
葫芦岛
运维
私信 提问
加载中
请先登录后再评论。
用vertx实现高吞吐量的站点计数器

工具:vertx,redis,mongodb,log4j 源代码地址:https://github.com/jianglibo/visitrank 先看架构图: 如果你不熟悉vertx,请先google一下。我这里将vertx当作一个容器,上面所有的圆圈要...

jianglibo
2014/04/03
4.2K
3
SQLServer实现split分割字符串到列

网上已有人实现sqlserver的split函数可将字符串分割成行,但是我们习惯了split返回数组或者列表,因此这里对其做一些改动,最终实现也许不尽如意,但是也能解决一些问题。 先贴上某大牛写的s...

cwalet
2014/05/21
9.7K
0
CDH5: 使用parcels配置lzo

一、Parcel 部署步骤 1 下载: 首先需要下载 Parcel。下载完成后,Parcel 将驻留在 Cloudera Manager 主机的本地目录中。 2 分配: Parcel 下载后,将分配到群集中的所有主机上并解压缩。 3 激...

cloud-coder
2014/07/01
6.8K
1
Swift百万线程攻破单例(Singleton)模式

一、不安全的单例实现 在上一篇文章我们给出了单例的设计模式,直接给出了线程安全的实现方法。单例的实现有多种方法,如下面: class SwiftSingleton { } 这段代码的实现,在shared中进行条...

一叶博客
2014/06/20
3.5K
16
程序猿媛一:Android滑动翻页+区域点击事件

滑动翻页+区域点击事件 ViewPager+GrideView 声明:博文为原创,文章内容为,效果展示,思路阐述,及代码片段。文尾附注源码获取途径。 转载请保留原文出处“http://my.oschina.net/gluoyer...

花佟林雨月
2013/11/09
4.3K
1

没有更多内容

加载失败,请刷新页面

加载更多

箭头翻转效果

vue实现点击箭头的旋转动画(收起展开)效果 https://blog.csdn.net/Rampage_w/article/details/106496646?utm_medium=distribute.pc_aggpage_search_result.none-task-blog-2~all~first_ra......

花乐天
20分钟前
0
0
预告 | 一场解决SSL/TLS证书困局的硬核发布会

大数据时代,信息安全威胁日益严峻,国内国际(等保2.0 、密码法、GDPR等)法规的出台,使得数据安全和隐私保护愈加被高度重视, SSL 证书作为互联网的安全标签,需求量日益增加,已然成为企...

osc_q5m9dzk0
20分钟前
13
0
提高数据处理效率的excel小技巧(一)

转自:求知鸟 作者:求知鸟 这是一个技巧贴,直接上干货: 1、你想在excel中看到函数值是如何计算出来的? Ctrl+~:进入函数视图 2、去除重复值方式有哪些? a、数据—数据工具—删除重复值(...

朱小五
昨天
0
0
全网疯传,50个精选BAT等大厂大数据、算法落地经验,白拿不谢!

话不多说,直接上干货资料,我们精选了50个百度、腾讯、阿里等大厂的大数据、算法落地经验,分享给大家: 识别二维码,回复"大厂经验",获取PDF干货合集! 合集目录: 识别二维码,回复"大厂...

BBuf
今天
11
0
小白写论文 | 技术性论文结构剖析

【前言】:公众号的AI初学者交流群已经建立啦,公众号后台回复【加群】可以加入。群里都是些一起学习的朋友,大家学习路上,结个伴。 【公众号资源汇总】:炼丹图书馆 | AI初学者所需要的资料...

机器学习炼丹术
昨天
0
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部