文档章节

Python爬虫代理池

j_hao104
 j_hao104
发布于 2016/12/05 09:39
字数 1587
阅读 1633
收藏 58

爬虫代理IP池

在公司做分布式深网爬虫,搭建了一套稳定的代理池服务,为上千个爬虫提供有效的代理,保证各个爬虫拿到的都是对应网站有效的代理IP,从而保证爬虫快速稳定的运行,当然在公司做的东西不能开源出来。不过呢,闲暇时间手痒,所以就想利用一些免费的资源搞一个简单的代理池服务。

1、问题

  • 代理IP从何而来?
      刚自学爬虫的时候没有代理IP就去西刺、快代理之类有免费代理的网站去爬,还是有个别代理能用。当然,如果你有更好的代理接口也可以自己接入。
      免费代理的采集也很简单,无非就是:访问页面页面 —> 正则/xpath提取 —> 保存
  • 如何保证代理质量?
      可以肯定免费的代理IP大部分都是不能用的,不然别人为什么还提供付费的(不过事实是很多代理商的付费IP也不稳定,也有很多是不能用)。所以采集回来的代理IP不能直接使用,可以写检测程序不断的去用这些代理访问一个稳定的网站,看是否可以正常使用。这个过程可以使用多线程或异步的方式,因为检测代理是个很慢的过程。
  • 采集回来的代理如何存储?
      这里不得不推荐一个高性能支持多种数据结构的NoSQL数据库SSDB,用于代理Redis。支持队列、hash、set、k-v对,支持T级别数据。是做分布式爬虫很好中间存储工具。
  • 如何让爬虫更简单的使用这些代理?
      答案肯定是做成服务咯,python有这么多的web框架,随便拿一个来写个api供爬虫调用。这样有很多好处,比如:当爬虫发现代理不能使用可以主动通过api去delete代理IP,当爬虫发现代理池IP不够用时可以主动去refresh代理池。这样比检测程序更加靠谱。

    2、代理池设计

      代理池由四部分组成:
  • ProxyGetter:
      代理获取接口,目前有5个免费代理源,每调用一次就会抓取这个5个网站的最新代理放入DB,可自行添加额外的代理获取接口;
  • DB:
      用于存放代理IP,现在暂时只支持SSDB。至于为什么选择SSDB,大家可以参考这篇文章,个人觉得SSDB是个不错的Redis替代方案,如果你没有用过SSDB,安装起来也很简单,可以参考这里
  • Schedule:
      计划任务用户定时去检测DB中的代理可用性,删除不可用的代理。同时也会主动通过ProxyGetter去获取最新代理放入DB;
  • ProxyApi:
      代理池的外部接口,由于现在这么代理池功能比较简单,花两个小时看了下Flask,愉快的决定用Flask搞定。功能是给爬虫提供get/delete/refresh等接口,方便爬虫直接使用。

    设计

    3、代码模块

      Python中高层次的数据结构,动态类型和动态绑定,使得它非常适合于快速应用开发,也适合于作为胶水语言连接已有的软件部件。用Python来搞这个代理IP池也很简单,代码分为6个模块:
  • Api:
      api接口相关代码,目前api是由Flask实现,代码也非常简单。客户端请求传给Flask,Flask调用ProxyManager中的实现,包括get/delete/refresh/get_all
  • DB:
      数据库相关代码,目前数据库是采用SSDB。代码用工厂模式实现,方便日后扩展其他类型数据库;
  • Manager:
      get/delete/refresh/get_all等接口的具体实现类,目前代理池只负责管理proxy,日后可能会有更多功能,比如代理和爬虫的绑定,代理和账号的绑定等等;
  • ProxyGetter:
      代理获取的相关代码,目前抓取了快代理代理66有代理西刺代理guobanjia这个五个网站的免费代理,经测试这个5个网站每天更新的可用代理只有六七十个,当然也支持自己扩展代理接口;
  • Schedule:
      定时任务相关代码,现在只是实现定时去刷新代码,并验证可用代理,采用多进程方式;
  • Util:
      存放一些公共的模块方法或函数,包含GetConfig:读取配置文件config.ini的类,ConfigParse: 集成重写ConfigParser的类,使其对大小写敏感, Singleton:实现单例,LazyProperty:实现类属性惰性计算。等等;
  • 其他文件:
      配置文件:Config.ini,数据库配置和代理获取接口配置,可以在GetFreeProxy中添加新的代理获取方法,并在Config.ini中注册即可使用;

    4、安装

    下载代码:
    git clone git@github.com:jhao104/proxy_pool.git
    或者直接到https://github.com/jhao104/proxy_pool 下载zip文件
    
    安装依赖:
    pip install -r requirements.txt
    
    启动:
    需要分别启动定时任务和api
    到Config.ini中配置你的SSDB
    到Schedule目录下:
    >>>python ProxyRefreshSchedule.py
    到Api目录下:
    >>>python ProxyApi.py
    

    5、使用

      定时任务启动后,会通过代理获取方法fetch所有代理放入数据库并验证。此后默认每20分钟会重复执行一次。定时任务启动大概一两分钟后,便可在SSDB中看到刷新出来的可用的代理:

useful_proxy

  启动ProxyApi.py后即可在浏览器中使用接口获取代理,一下是浏览器中的截图:
  index页面:


index

  get页面:


get


  get_all页面:


get_all

  爬虫中使用,如果要在爬虫代码中使用的话, 可以将此api封装成函数直接使用,例如:

import requests
def get_proxy():
    return requests.get("http://127.0.0.1:5000/get/").content
def delete_proxy(proxy):
    requests.get("http://127.0.0.1:5000/delete/?proxy={}".format(proxy))
# your spider code
def spider():
    # ....
    requests.get('https://www.example.com', proxies={"http": "http://{}".format(get_proxy)})
    # ....

6、最后

  时间仓促,功能和代码都比较简陋,以后有时间再改进。喜欢的在github上给个star。感谢!

       github项目地址:https://github.com/jhao104/proxy_pool

  个人博客:http://www.spiderpy.cn/

        欢迎关注微信公众号: Pythoner每日一报

        

​转载请注明来源:开源中国 https://my.oschina.net/jhao104/blog/799883  

© 著作权归作者所有

共有 人打赏支持
j_hao104
粉丝 202
博文 67
码字总数 101848
作品 2
程序员
私信 提问
加载中

评论(5)

j_hao104
j_hao104

引用来自“上山打老虎啊”的评论

博主,那个配置文件里SSDB该怎么配置,报错raise NoSectionError(section),ConfigParser.NoSectionError: No section: 'DB'。
之前GetConfig.py中有处错误,我改正了。你重新拉下代码试试
上山打老虎啊
上山打老虎啊
博主,那个配置文件里SSDB该怎么配置,报错raise NoSectionError(section),ConfigParser.NoSectionError: No section: 'DB'。
j_hao104
j_hao104

引用来自“张小农”的评论

不好意思,看错了.有验证的了.
对的,抓取的代理在原始队列里面,定时任务会去验证:relaxed:
张小农
张小农
不好意思,看错了.有验证的了.
张小农
张小农
如果在入库前进行验证一次这个代理是否可以正常运行就好了.
Python 爬取可用代理 IP

通常情况下爬虫超过一定频率或次数,对应的公网 IP 会被封掉,为了能稳定爬取大量数据,我们一般从淘宝购买大量代理ip,一般 10元 10w IP/天,然而这些 IP 大量都是无效 IP,需要自己不断重试...

大数据之路
2012/07/16
0
0
福利 | Python专场竞技,这些书给你加把力!

端午节将至,各地龙舟备战竞技,粽子部队也整装待发。小编掐指一算,这种热闹的时节,是时候展现真正的技(fu)术(li)了! (“Python号”龙舟闪亮登场!) Python作为当下最流行的编程语言...

06/15
0
0
使用爬虫实现代理IP池之放弃篇

啥叫代理IP以及代理IP池 概念上的东西网上搜索一下就好了,这里简单科普一下(大部分会读这篇文章的人,基本是不需要我来科普的),白话说就是能联网并提供代理访问互联网的服务器,它提供的...

一别丶经年
07/20
0
0
重拾python爬虫之urllib3

是一个功能强大,条理清晰,用于HTTP客户端的Python库。许多Python的原生系统已经开始使用。Urllib3提供了很多python标准库里所没有的重要特性: 线程安全 连接池 客户端SSL/TLS验证 文件分部...

潇潇漓燃
07/08
0
0
Python3爬虫视频学习教程

大家好哈,现在呢静觅博客已经两年多啦,可能大家过来更多看到的是爬虫方面的博文,首先非常感谢大家的支持,希望我的博文对大家有帮助! 最近,主要的任务就是开发性感美女图片大全,使用p...

yangjiyue0520
2017/11/18
0
0

没有更多内容

加载失败,请刷新页面

加载更多

聊聊storm的AggregateProcessor的execute及finishBatch方法

序 本文主要研究一下storm的AggregateProcessor的execute及finishBatch方法 实例 TridentTopology topology = new TridentTopology(); topology.newStream("spout1", spout......

go4it
今天
3
0
大数据教程(7.5)hadoop中内置rpc框架的使用教程

博主上一篇博客分享了hadoop客户端java API的使用,本章节带领小伙伴们一起来体验下hadoop的内置rpc框架。首先,由于hadoop的内置rpc框架的设计目的是为了内部的组件提供rpc访问的功能,并不...

em_aaron
今天
4
0
CentOS7+git+github创建Python开发环境

1.准备CentOS7 (1)下载VMware Workstation https://pan.baidu.com/s/1miFU8mk (2)下载CentOS7镜像 https://mirrors.aliyun.com/centos/ (3)安装CentOS7系统 http://blog.51cto.com/fengyuns......

枫叶云
昨天
3
0
利用ibeetl 实现selectpicker 的三级联动

1. js 直接写在html页面上面,ibeetl 就可以动态地利用后台传上来的model List ,不需要每次点击都要ajax请求后台 2. 使用selectpicker 的时候,除了对selecct option的动态处理后,还需要 $("#...

donald121
昨天
3
0
Android SELinux avc dennied权限问题解决方法

1. 概述 SELinux是Google从android 5.0开始,强制引入的一套非常严格的权限管理机制,主要用于增强系统的安全性。 然而,在开发中,我们经常会遇到由于SELinux造成的各种权限不足,即使拥有“...

TreasureWe
昨天
6
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部