文档章节

采集免费ip,制作自己的代理ip池

南寻
 南寻
发布于 2017/09/07 01:26
字数 1153
阅读 1271
收藏 3

        我们在爬取网站的时候经常会遇到突然访问不了的问题,原因之一是因为你的ip进了该站的黑名单,在某一段时间内不能访问该站的资源。那么该怎么解决这个问题?比较有效的方式是使用代理ip,而如果有一个自己的代理ip池,妈妈再也不用担心我没有ip可用啦。

        github传送门0(xici代理ip池

西刺网(传送门1 国内高匿)是一个免费代理ip资源比较多的站,本文就从西刺网获取ip,制作代理ip池。

        打开(传送门1 国内高匿)可见到如下页面

有俩千多页代理ip,,当然这是按时间排序的,我估计越到后面的ip可能就没啥用了.

分析该页面的源码

很简单的发现,所有的代理ip信息都在table下,每一个tr都是一条ip的信息。那这就比较简单了,分分钟来一个漂亮的正则来将需要的信息匹配出来(这里我匹配的有ip地址,端口,类型,服务器地址,是否匿名)

编写xc.py

正则表达式(个人觉得这应该是本程序最精华的部分)的使用如下

pattern=re.compile(u'<tr class=".*?">.*?'
                           +u'<td class="country"><img.*?/></td>.*?'
                           +u'<td>(\d+\.\d+\.\d+\.\d+)</td>.*?'
                           +u'<td>(\d+)</td>.*?'
                           +u'<td>.*?'
                           +u'<a href=".*?">(.*?)</a>.*?'
                           +u'</td>.*?'
                           +u'<td class="country">(.*?)</td>.*?'
                           +u'<td>([A-Z]+)</td>.*?'
                           +'</tr>'
                           ,re.S)
        l=re.findall(pattern,text)

\d匹配数字,\d+匹配多个数字 (\d+) 这里匹配端口号

[A-Z]匹配大写字母,[A-Z]+匹配多个大写字母 这里匹配的是类型

.匹配单个任意字符,*匹配前面字符0到多次,?匹配前面0到一次,(.*?)匹配任意字符

如果你对正则表达式不是很熟悉,你可以在这里(传送门2 菜鸟教程)进行这方面的学习。

下面编写请求头

self.headers={
            'Accept-Encoding':'gzip, deflate, br',
            'Accept-Language':'zh-CN,zh;q=0.8',
            'Referer':'http://www.xicidaili.com/nn/',
            'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 '
                         '(KHTML, like Gecko) Ubuntu Chromium/60.0.3112.113 Chrome/60.0.3112.113 Safari/537.36',
        }
        self.proxyHeaders={
            'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 '
                          '(KHTML, like Gecko) Ubuntu Chromium/60.0.3112.113 Chrome/60.0.3112.113 Safari/537.36',
        }

第一个self.headers是下载页面的请求头,self.proxyHeaders是后面验证ip是否可用的请求头。

下面是下载页面和正则匹配的函数

def getPage(self,url):
        page=self.req.get(url,headers=self.headers).text
        # print(page)
        return page

    def Page(self,text):
        time.sleep(2)
        pattern=re.compile(u'<tr class=".*?">.*?'
                           +u'<td class="country"><img.*?/></td>.*?'
                           +u'<td>(\d+\.\d+\.\d+\.\d+)</td>.*?'
                           +u'<td>(\d+)</td>.*?'
                           +u'<td>.*?'
                           +u'<a href=".*?">(.*?)</a>.*?'
                           +u'</td>.*?'
                           +u'<td class="country">(.*?)</td>.*?'
                           +u'<td>([A-Z]+)</td>.*?'
                           +'</tr>'
                           ,re.S)
        l=re.findall(pattern,text)
        return l

根据上面的代码,就可以将代理ip从西刺站拿下来,接下来检验是否有效。

requests是一个非常有用的库,这里也将使用它进行校验

self.req.get("http://www.baidu.com",proxies={"{}".format(i[2]):"{}://{}:{}".format(i[2],i[0],i[1])},timeout=5)

i 是 ('110.73.48.247', '8123', 'HTTP') 类数据

为了保证校验的可靠性,我把每次校验设置超时5s。

 

如此就能拿到新鲜免费的代理ip了,为了使得ip能多次使用,我将其存入mysql数据库中。

写入代码如下

def insert(self,l):
    print("插入{}条".format(len(l)))
    self.cur.executemany("insert into xc values(%s,%s,%s,%s,%s)",l)
    self.con.commit()

读取代码如下

def select(self):
    a=self.cur.execute("select ip,port,xieyi from xc")
    info=self.cur.fetchall()
    return info

最后来看下使用效果:

编写demo.py 再导入xc.py 中的xiciSpider类

from xi import xiciSpider
p=xiciSpider()
#第一次先运行这个方法,现要将ip存入mysql
p.getNewipToMysql()
#获取可用代理ip,默认获取1个,可指定size大小
ip=p.getAccessIP()
print(ip)

#输出如下
“”“
/usr/bin/python3.5 /home/cb/桌面/xici/demo.py
[('36.251.248.76', '80', 'HTTPS')]

Process finished with exit code 0
”“”

首先你需要从西刺网将ip爬取到自己数据库中,然后再从数据库中提取有用的ip

第二次可直接使用getAccessIP方法来获取可用ip.

 

最后奉上完整代码 github传送门0(xici代理ip池),觉得有用的不妨点个star

也欢迎关注本人的专栏 Python数据分析https://zhuanlan.zhihu.com/c_99646580

© 著作权归作者所有

共有 人打赏支持
南寻
粉丝 63
博文 90
码字总数 35772
作品 0
朝阳
程序员
私信 提问
Python代理IP池--proxy_pool

爬虫代理IP池 1、问题 代理IP从何而来?   刚自学爬虫的时候没有代理IP就去西刺、快代理之类有免费代理的网站去爬,还是有个别代理能用。当然,如果你有更好的代理接口也可以自己接入。  ...

j_hao104
2017/03/31
1K
2
Henson/ProxyPool

Golang实现的IP代理池 采集免费的代理资源为爬虫提供有效的代理 1、代理池设计   代理池由四部分组成: Getter:   代理获取接口,目前有9个免费代理源,每调用一次就会抓取这些网站最新...

Henson
2017/03/31
0
0
Python爬虫代理池

爬虫代理IP池 在公司做分布式深网爬虫,搭建了一套稳定的代理池服务,为上千个爬虫提供有效的代理,保证各个爬虫拿到的都是对应网站有效的代理IP,从而保证爬虫快速稳定的运行,当然在公司做...

j_hao104
2016/12/05
1K
5
Golang 实现的 IP 代理池--ProxyPool

采集免费的代理资源为爬虫提供有效的代理 1、代理池设计 代理池由四部分组成: Getter: 代理获取接口,目前有6个免费代理源,每调用一次就会抓取这个6个网站最新的100个代理放入Channel,可...

Henson
2017/03/30
3.7K
5
ProxyPool —— Golang 实现的 IP 代理池

ProxyPool 是 Golang 实现的 IP 代理池,采集免费的代理资源为爬虫提供有效的代理。

王练
2017/03/31
27
0

没有更多内容

加载失败,请刷新页面

加载更多

大数据学习有哪几个步骤

目前大数据行业异常火爆,不少人都对大数据充满了兴趣,其中有大部分人都从没接触过大数据,对于应该如何学习大数据一头雾水。大数据学习并不是高深莫测的,虽然它并没有多简单,但是通过努力...

董黎明
14分钟前
0
0
shell习题_3

1:监控httpd的进程;每隔10s检测一次服务器的httpd的进程数,如果大于500则自动重启httpd服务;并检测是否启动成功; 如果没有正常启动还需要再启动一次,最大不成功数超过五次立即发邮件给管理...

芬野de博客
14分钟前
0
0
Android 9.0 优势探讨

我们来谈论一下 Android。尽管 Android 只是一款内核经过修改的 Linux,但经过多年的发展,Android 开发者们(或许包括正在阅读这篇文章的你)已经为这个平台的演变做出了很多值得称道的贡献...

问题终结者
31分钟前
1
0
vue 组件使用中的一些细节点

细节一 基础例子 运行结果: 以上大家都懂,这边就不多说,回到代码里,有时候我们需要 tbody 里面每一行是一个子组件,那我们代码可以怎么写呢?我们可以这样写,定义一个全局组件,如下: ...

peakedness丶
38分钟前
2
0
vue 之 css module的使用方法

动手之前先配置项目,网上很多文章说需要下载css-loader插件,Vue中的vue-loader已经集成了 CSS Modules,因此删掉也能正常运行 在vue.config.js中添加如下配置 `css: {``loaderOptions: ...

前端小攻略
41分钟前
2
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部