文档章节

Python多线程抓取代理服务器

 奋斗的小鱼儿
发布于 2016/12/19 08:56
字数 733
阅读 41
收藏 0

Python作为一门功能强大的脚本语言来说,经常被用来写爬虫程序,下面是Python爬虫多线程抓取代理服务器。

年前是用 //blog.linuxeye.com/340.html 来抓取代理服务器的,谁知道过完年回来http://www.cnproxy.com/被墙,导致某网站不能抓取东西,停止更新。

现在改抓取 http://www.proxy.com.ru 的代理服务器,这里的代理服务器更多,更简单。

下面代码可以直接用,代码如下:

  1. #!/usr/bin/env python
  2. #coding:utf-8
  3. #BLOG: blog.linuxeye.com
  4.  
  5. import urllib2
  6. import re
  7. import threading
  8. import time
  9. import MySQLdb
  10.  
  11. rawProxyList = []
  12. checkedProxyList = []
  13.  
  14. #抓取代理网站
  15. targets = []
  16. for i in xrange(1,42):
  17.         target = r"http://www.proxy.com.ru/list_%d.html" % i
  18.         targets.append(target)
  19.  
  20. #抓取代理服务器正则
  21. p = re.compile(r'''<tr><b><td>(\d+)</td><td>(.+?)</td><td>(\d+)</td><td>(.+?)</td><td>(.+?)</td></b></tr>''')
  22.  
  23. #获取代理的类
  24. class ProxyGet(threading.Thread):
  25.     def __init__(self,target):
  26.         threading.Thread.__init__(self)
  27.         self.target = target
  28.  
  29.     def getProxy(self):
  30.         print "代理服务器目标网站: " + self.target
  31.         req = urllib2.urlopen(self.target)
  32.         result = req.read()
  33.         #print chardet.detect(result)
  34.         matchs = p.findall(result)
  35. #       print matchs
  36.         for row in matchs:
  37.             ip=row[1]
  38.             port =row[2]
  39.             addr = row[4].decode("cp936").encode("utf-8")
  40.             proxy = [ip,port,addr]
  41.             print proxy
  42.             rawProxyList.append(proxy)
  43.  
  44.     def run(self):
  45.         self.getProxy()
  46.  
  47. #检验代理的类
  48. class ProxyCheck(threading.Thread):
  49.     def __init__(self,proxyList):
  50.         threading.Thread.__init__(self)
  51.         self.proxyList = proxyList
  52.         self.timeout = 5
  53.         self.testUrl = "http://www.baidu.com/"
  54.         self.testStr = "030173"
  55.  
  56.     def checkProxy(self):
  57.         cookies = urllib2.HTTPCookieProcessor()
  58.         for proxy in self.proxyList:
  59.             proxyHandler = urllib2.ProxyHandler({"http" : r'http://%s:%s' %(proxy[0],proxy[1])})
  60.             #print r'http://%s:%s' %(proxy[0],proxy[1])
  61.             opener = urllib2.build_opener(cookies,proxyHandler)
  62.             opener.addheaders = [('User-agent', 'Mozilla/5.0 (Windows NT 6.2; WOW64; rv:22.0) Gecko/20100101 Firefox/22.0')]
  63.             #urllib2.install_opener(opener)
  64.             t1 = time.time()
  65.  
  66.             try:
  67.                 #req = urllib2.urlopen("http://www.baidu.com", timeout=self.timeout)
  68.                 req = opener.open(self.testUrl, timeout=self.timeout)
  69.                 #print "urlopen is ok...."
  70.                 result = req.read()
  71.                 #print "read html...."
  72.                 timeused = time.time() - t1
  73.                 pos = result.find(self.testStr)
  74.                 #print "pos is %s" %pos
  75.  
  76.                 if pos > 1:
  77.                     checkedProxyList.append((proxy[0],proxy[1],proxy[2],timeused))
  78.                     #print "ok ip: %s %s %s %s" %(proxy[0],proxy[1],proxy[2],timeused)
  79.                 else:
  80.                      continue
  81.             except Exception,e:
  82.                 #print e.message
  83.                 continue
  84.  
  85.     def run(self):
  86.         self.checkProxy()
  87.  
  88. if __name__ == "__main__":
  89.     getThreads = []
  90.     checkThreads = []
  91.  
  92. #对每个目标网站开启一个线程负责抓取代理
  93. for i in range(len(targets)):
  94.     t = ProxyGet(targets[i])
  95.     getThreads.append(t)
  96.  
  97. for i in range(len(getThreads)):
  98.     getThreads[i].start()
  99.  
  100. for i in range(len(getThreads)):
  101.     getThreads[i].join()
  102.  
  103. print '.'*10+"总共抓取了%s个代理" %len(rawProxyList) +'.'*10
  104.  
  105. #开启20个线程负责校验,将抓取到的代理分成20份,每个线程校验一份
  106. for i in range(20):
  107.     t = ProxyCheck(rawProxyList[((len(rawProxyList)+19)/20) * i:((len(rawProxyList)+19)/20) * (i+1)])
  108.     checkThreads.append(t)
  109.  
  110. for i in range(len(checkThreads)):
  111.     checkThreads[i].start()
  112.  
  113. for i in range(len(checkThreads)):
  114.     checkThreads[i].join()
  115.  
  116. print '.'*10+"总共有%s个代理通过校验" %len(checkedProxyList) +'.'*10
  117.  
  118. #插入数据库,表结构自己创建,四个字段ip,port,speed,address
  119. def db_insert(insert_list):
  120.     try:
  121.         conn = MySQLdb.connect(host="localhost", user="root", passwd="admin",db="m_common",charset='utf8')
  122.         cursor = conn.cursor()
  123.         cursor.execute('delete from proxy')
  124.         cursor.execute('alter table proxy AUTO_INCREMENT=1')
  125.         cursor.executemany("INSERT INTO proxy(ip,port,speed,address) VALUES (%s,%s,%s,%s)",insert_list)
  126.         conn.commit()
  127.         cursor.close()
  128.         conn.close()
  129.     except MySQLdb.Error,e:
  130.         print "Mysql Error %d: %s" % (e.args[0], e.args[1])
  131. #代理排序持久化
  132. proxy_ok = []
  133. f= open("proxy_list.txt",'w+')
  134. for proxy in sorted(checkedProxyList,cmp=lambda x,y:cmp(x[3],y[3])):
  135.     if proxy[3] < 8:
  136.         #print "checked proxy is: %s:%s\t%s\t%s" %(proxy[0],proxy[1],proxy[2],proxy[3])
  137.         proxy_ok.append((proxy[0],proxy[1],proxy[3],proxy[2]))
  138.         f.write("%s:%s\t%s\t%s\n"%(proxy[0],proxy[1],proxy[2],proxy[3]))
  139. f.close()
  140.  
  141. db_insert(proxy_ok)

本文转载自:https://blog.linuxeye.com/410.html

粉丝 0
博文 11
码字总数 1017
作品 0
宝坻
程序员
私信 提问
Python通过代理多线程抓取图片

Python作为一门功能强大的脚本语言,经常被用来写爬虫程序,下面是Python通过代理多线程抓取图片代码 Python爬虫多线程抓取代理服务器参考:http://www.linuxeye.com/program/1763.html 说明...

lj2007331
2013/07/15
454
0
[Python] 实现网络爬虫

1、什么是网络爬虫 网络爬虫是现代搜索引擎技术的一种非常核心、基础的技术,网络就好比是一张蜘蛛网,网络爬虫就像是一只蜘蛛,在网络间‘爬来爬去’,搜索有用的信息。 2、抓取代理服务器的...

长平狐
2013/06/03
957
1
总结八个好用的Python爬虫技巧

用python也差不多一年多了,python应用最多的场景还是web快速开发、爬虫、自动化运维:写过简单网站、写过自动发帖脚本、写过收发邮件脚本、写过简单验证码识别脚本。 爬虫在开发过程中也有很...

糖宝lsh
2018/11/26
95
0
[转]用python爬虫抓站的一些技巧总结

学用python也有3个多月了,用得最多的还是各类爬虫脚本:写过抓代理本机验证的脚本,写过在discuz论坛中自动登录自动发贴的脚本,写过自动收邮件的脚本,写过简单的验证码识别的脚本,本来想...

qkhh
2014/03/26
243
0
带你入门Python爬虫,8个常用爬虫技巧盘点

python作为一门高级编程语言,它的定位是优雅、明确和简单。 我学用python差不多一年时间了, 用得最多的还是各类爬虫脚本, 写过抓代理本机验证的脚本、写过论坛中自动登录自动发贴的脚本 ...

糖宝lsh
2018/08/08
107
0

没有更多内容

加载失败,请刷新页面

加载更多

搭建高可用MongoDB集群(分片)

搭建高可用MongoDB集群(分片) MongoDB基础请参考:https://blog.51cto.com/kaliarch/2044423 MongoDB(replica set)请参考:https://blog.51cto.com/kaliarch/2044618 一、概述 1.1 背景 ......

linjin200
19分钟前
4
0
CDH6.0.1集成tez-0.9.1计算引擎

参考文章: https://www.jianshu.com/p/9fb9f32e1f0f https://www.baidu.com/link?url=OgpwasnZi7H1dySN2T111sseEWDBaCCTC3DFV61G7756YbrkJCA8Y3UFaueyqnfN&wd=&eqid=daeb8b3500049cf3000000......

Sheav
21分钟前
4
0
Vue内置指令的使用

v-model(数据绑定) v-model常用于表单数据的双向绑定,它本质上是一个语法糖。它主要的有两种应用: 在文本框、多行文本、input的下拉框、单选按钮、复选框中的应用 <div id="app"> ...

凌兮洛
22分钟前
5
0
外部来源应用检查-烦死了,终于找到解决设置了

Android 连接usb调试应用的时候: 华为关闭方法:1、设置-安全-更多安全设置,关掉外部来源应用检查。2、设置-系统-开发人员选项-关闭“监控ADB安装应用” 不知道OPPO 怎么关闭的?...

QGlaunch
23分钟前
4
0
6个K8s日志系统建设中的典型问题,你遇到过几个?

作者 | 元乙 阿里云日志服务数据采集客户端负责人,目前采集客户端 logtail 在集团百万规模部署,每天采集上万应用数 PB 数据,经历多次双 11、双 12 考验。 导读:随着 K8s 不断更新迭代,使...

阿里云官方博客
25分钟前
4
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部