文档章节

Python实现获取百度贴吧主页的前十页回复数,帖子id,主题

鑢七花
 鑢七花
发布于 2016/11/17 15:57
字数 712
阅读 6
收藏 0

                                                     Python实现获取百度贴吧主页的前十页回复数,帖子id,主题

#!/usr/bin/python
# -*- coding:utf-8 -*-
import urllib
import urllib2
import re
import sys
reload (sys)
sys.setdefaultencoding('utf-8')
 
#处理页面标签类
class Tool:
    #去除img标签,7位长空格
    removeImg = re.compile('<img.*?>| {7}|')
    #删除超链接标签
    removeAddr = re.compile('<a.*?>|</a>')
    #把换行的标签换为\n
    replaceLine = re.compile('<tr>|<div>|</div>|</p>')
    #将表格制表<td>替换为\t
    replaceTD= re.compile('<td>')
    #把段落开头换为\n加空两格
    replacePara = re.compile('<p.*?>')
    #将换行符或双换行符替换为\n
    replaceBR = re.compile('<br><br>|<br>')
    #将其余标签剔除
    removeExtraTag = re.compile('<.*?>')
    def replace(self,x):
        x = re.sub(self.removeImg,"",x)
        x = re.sub(self.removeAddr,"",x)
        x = re.sub(self.replaceLine,"\n",x)
        x = re.sub(self.replaceTD,"\t",x)
        x = re.sub(self.replacePara,"\n    ",x)
        x = re.sub(self.replaceBR,"\n",x)
        x = re.sub(self.removeExtraTag,"",x)
        #strip()将前后多余内容删除
        return x.strip()
        
#百度贴吧爬虫类
class BDTB:

    def __init__(self,baseUrl):
        self.baseURL = baseUrl
        self.tool = Tool()
        self.floor = 1
        self.file = None
        
    #传入贴吧主页网址,获取贴吧主页的代码
    def getPage(self,pageNum):
        try:
            url = self.baseURL + '&pn=' + str(pageNum)
            request = urllib2.Request(url)
            response = urllib2.urlopen(request)
            #print response.read()
            return response.read().decode('utf-8')
        except urllib2.URLError, e:
            if hasattr(e,"reason"):
                print u"连接百度贴吧失败,错误原因",e.reason
                return None
                
    #传入主页代码,获取帖子
    def getTitle(self,page):
        pattern = re.compile(r'<a href="/p/.*? title="(.*?)" .*? class="j_th_tit .*?>(.*?)</a>',re.S)
        result = re.findall(pattern,page)
        gettitles = []
        for item in result:            
            gettitle = "\n"+"标题:"+self.tool.replace(item[1])+"\n"
            gettitles.append(gettitle.encode('utf-8'))
        return gettitles

    #传入主页页码,获取帖子回复数
    def getReplay(self,page):
        pattern = re.compile(r'<span class="threadlist_rep_num center_text.*?>(.*?)</span>',re.S)
        result = re.findall(pattern,page)
        getreplays = []
        #print result
        for item in result:
            #print self.tool.replace(getreplay)
            getreplay = "\n"+"回复数:"+self.tool.replace(item)+"\n"
            getreplays.append(getreplay.encode('utf-8'))            
        #print getreplays
        return getreplays
        

    #传入主页页码,获取帖子作者
    #def getAuthor(self):
        #page = self.getPage()
        #pattern = re.compile(r'<a data-field=\'.*? class="frs-author-name.*? >(.*?)</a>',re.S)
        #result = re.findall(pattern,page)
        #for item in result:
            #print item
    
    #传入主页代码,获取帖子id
    def getId(self,page):
        pattern = re.compile(r'<a href="/p/(.*?)" title=".*?" class="j_th_tit .*?>.*?</a>',re.S)
        result = re.findall(pattern,page)
        getids = []
        #print result
        for item in result:
            #print self.tool.replace(getid)
            getid = "\n"+"帖子id:"+self.tool.replace(item)+"\n"
            getids.append(getid.encode('utf-8'))
        #print getids
        return getids            

    def writeDate(self,getreplays,getids,gettitles):
        reload(sys)
        sys.setdefaultencoding('utf-8')
        for (item, a, b) in zip(getreplays,getids,gettitles):
            self.file.write(item)
            self.file.write(a)
            self.file.write(b)
            c = "------------------------------------------------------------------------"
            self.file.write(c)  
            self.floor += 1
    def start(self,title):
        indexPage = self.getPage(0)
        gettitle = self.getTitle(indexPage)
        self.file = open(title + ".txt","a+")            
        print "写入文件名称成功!"
        if indexPage == None:
            print "URL已失效,请重试"
            return
        try:
            print "获取贴吧前十页帖子"
            for i in range(0,10):
                print "正在写入第" + str(i) + "页数据"
                page = self.getPage(i*50)
                getreplays = self.getReplay(page)
                getids = self.getId(page)
                gettitles = self.getTitle(page)
                self.writeDate(getreplays,getids,gettitles)
        except IOError,e:
            print "写入异常,原因" + e.message
        finally:
            print "写入任务完成"
            
        
print u"请输入贴吧名:"
baseURL = 'http://tieba.baidu.com/f?kw=' + raw_input(u'') + '&fr=ala0&tpl=5'
print u"请再一次输入贴吧名称" #输入的名称为保存数据的txt文件名称
title = raw_input(u'')
#title = "贴吧主页"
bdtb = BDTB(baseURL)
bdtb.start(title)

格式粘贴时有问题,直接拷贝可能会有问题,请注意。

© 著作权归作者所有

共有 人打赏支持
鑢七花
粉丝 5
博文 14
码字总数 17605
作品 0
葫芦岛
运维
私信 提问
Python实现贴吧多线程网盘爬虫

大多数Python学习者都是冲着Python在爬虫领域有非常出色的表现才开始学习的,在学好Python的基本语法并会使用re、requests、BeautifulSoup4等模块后,很快就能写出一个简单的爬虫小程序(不要...

数据取经团
2017/11/29
0
0
Python网络爬虫(Xpath解析, lxml库, selenium)

安装: Windows :安装selenium python -m pip install selenium Anaconda Prompt下执行 : conda install selenium Linux/Mac OS: sudo pip3 install selenium Ubuntu :安装Scrapy框架 ####......

巴黎香榭
11/10
0
0
平心而论,这波虎扑diss吴亦凡属于什么水平?

我绝对是个不合格的专栏作者, 面对热门话题就像个过客。(双押x2) 人家写文章热点蹭不停, 跑得比香港记者还快。 我非觉得不行, 选角度、写代码,折腾到现在。 跟风的人逃不开过气的宿命,...

crossin
09/14
0
0
ThinkOX 1.1.0 发布,新增资讯模块、同步登陆绑定站内账号等

如果出现升级提示,请关闭浏览器重新打开即可安装。 产品主页:tox.ourstu.com 版本号 1.1.0 包含了大量改进。 授权用户请联系我们升级至最新版(必须升级至1.1.0版才能使用手机客户端)。 ...

想天软件奕潇
2014/08/27
3.3K
7
在技术圈儿混,怎能不关注这几个公众号!

精品公众号订阅,总有几个适合你 AIOps智能运维 ID:AI_Ops ▲长按图片识别二维码关注 百度云智能运维团队官方公众号!我们利用大规模分布式、大数据和机器学习等技术为百度云用户和百度各产...

g2v13ah
03/30
0
0

没有更多内容

加载失败,请刷新页面

加载更多

手动回滚事物

TransactionAspectSupport.currentTransactionStatus().setRollbackOnly();

素剑步青尘
10分钟前
0
0
jvm 运行参数归纳

-XX:autoBoxCacheMax 包装类型的缓存最大值参见:https://my.oschina.net/u/2552286/blog/2990515 -XX:autoBoxCacheMax=7777 -Xms256M -Xmx1024M 堆的初始内存与最大内存 在生产中,这两个值...

Canaan_
12分钟前
2
0
iOS 集成Facebook 第三方分享报错[FBSDKInternalUtility validateAppID]: failed for URL: "fbauth2:/" - error:

出现这种原因主要是因为info.plist文件里面没有添加一些配置文件

HOrange
17分钟前
1
0
轻松上云系列之二:其他云数据迁移至阿里云

本文档围绕如何将您其他云厂商上的数据迁移到阿里云,提供了多个场景的实践方案。 文档合集 AWS 数据迁移至阿里云 Amazon S3数据迁移到OSS 从AWS RDS迁移MySQL到阿里云RDS AWS S3迁移到OSS(...

阿里云官方博客
18分钟前
0
0
架构师的黄金证书---TOGAF

https://baijiahao.baidu.com/s?id=1590528955022289848&wfr=spider&for=pc

swingcoder
19分钟前
0
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部