加载中
2017/10/08 22:08
发表了博客评论:
感谢指正
2017/10/02 10:42
发表了博客评论:
第一个已修正。
第二种用map函数是可以,这种只是为了更直观些。
😄
2017/09/30 13:39
发表了博客评论:
处理中文的难点在分词吧,推荐ICTCLAS和jieba。
2017/09/30 13:34
发表了博客评论:
中文分词是中文NLP的前提
2017/09/29 15:16
发表了博客评论:
中文处理的问题在于分词,但是这方面的工具和资料都比较多,并不是问题
2017/09/28 09:27
发表了博客评论:
当然可以洛
2017/04/18 17:40
发表了博客评论:
你用的是python2吧?py2的字典中文显示的是编码格式,去get出来就是中文,只是看着不是。
如果你想print出来也是中文的话可用print json.dumps(dict_obj, ensure_ascii=False)

当然这些的前提都是你的代码没有问题也不是编码问题。。。。你这么直接问没有贴信息我也很难猜😓
2017/03/30 21:14
发表了博客评论:
厉害,这么快就实现了。虽然没用过Go。。。。。还是要给你点赞😄
2017/03/30 18:07
发表了博客评论:
你确定?前两天开始就有用Cookie验证了 word哥
2017/03/30 15:21
发表了博客评论:
加密内容是可以这样。但是打乱JS代码而且还是document.cookie,这是是拿不到cookie的。要修改JS才行😄
2017/03/24 18:24
发表了博客评论:
你的考虑性能,在高并发的情况下 能不能用浏览器就尽量不用
2017/03/24 15:37
发表了博客评论:
哈哈 爬虫入门之抓取免费代理😁
2016/12/09 20:10
发表了博客评论:
之前GetConfig.py中有处错误,我改正了。你重新拉下代码试试
2016/12/07 12:48
发表了博客评论:
对的,抓取的代理在原始队列里面,定时任务会去验证☺
2016/07/07 10:37
发表了博客评论:
点 ‘© 著作权归作者所有’ 那里
2016/06/15 08:59
发表了博客评论:
那样可能会被服务器拦截,主要看运行商
2016/03/27 21:45
发表了博客评论:
个人习惯问题,我觉得requests和urllib2相比 并没有太大建设性的好处
2016/03/26 11:06
发表了博客评论:
可以利用Twisted模块,http://blog.csdn.net/hanhuili/article/details/9389433 或者利用框架 scrapy,封装了异步功能
2016/03/26 10:55
发表了博客评论:
代理问题
2016/03/23 09:07
发表了博客评论:
适合新手快速学习

没有更多内容

加载失败,请刷新页面

返回顶部
顶部
返回顶部
顶部