qq:800819103
在线客服,实时响应qq群
在线客服,实时响应客服电话
13318873961使用高质量代理ip设计分布式爬虫的一些思路!假如不用代理ip,爬虫业务必定无路可行,因此大部分爬虫工作者都会去购买安全稳定的代理ip。使用了高质量的代理ip后,会不会就能够无后顾之忧了呢?这个可不会这么容易,还要改进方案,有效分配资源,提升工作效率,又快速又稳定又高效的完成爬虫。
方案一、每个进程从接口API中随机取一个IP列表来反复使用,失效后再调用API获取,大致逻辑是这样:
1、每个进程,从接口随机取回一批ip回来,反复试着ip目录去抓取数据;
2、要是访问成功,则继续抓取下一条。
3、要是失败了,再从接口取一批IP,继续尝试。
方案弊端:每个IP都是有期限的,要是提取了一百个,用到第二十个时,或许剩下的大多数都无法使用了。要是设置HTTP请求时连接时间超时是3秒,读取时间超时是5秒,那么或许会耗费3-8秒的时间,在这3-8秒内可能抓取了几百次了。
方案二:每个进程从接口API中随机取一个IP来使用,失败则再调用API获取一个IP,大致逻辑如下:
1、每个进程,从接口随机取回一个ip来,用这个ip来浏览资源,
2、要是访问成功,则继续抓下一条。
3、要是失败了,再从接口随机取一个IP,继续尝试。
方案缺点:调用API获取IP的行为非常频繁,会对代理服务器造成特别大的压力,影响API接口稳定,可能会被限制提取。这类方案也不适合,无法持久稳定的运行。
方案三:先提取大量IP导入本地数据库,从数据库里面取IP,大致逻辑如下:
1、在数据库里面建一个表,写一个导入脚本,每分钟请求多少次API(黑洞代理可提供动态vps),把IP列表导入到数据库里面。
2、在数据库里面记录好 导入时间、IP、Port、过期时间、IP可用状态 等字段;
3、写一个抓取脚本,抓取脚本从数据库里面读取可用IP,每个进程从数据库获取一个IP进行使用。
4、执行抓取,对结果进行判断,处理cookie等,只要出现验证码或者失败就放弃这个IP,重新换一个IP。
这种方案有效的避开了代理服务器资源的消耗,有效的分配代理IP的使用,更加的高效和稳定,保障了爬虫工作的持久性和稳定性。
相关文章内容简介
1 使用高质量代理ip设计分布式爬虫的一些思路
使用高质量代理ip设计分布式爬虫的一些思路!假如不用代理ip,爬虫业务必定无路可行,因此大部分爬虫工作者都会去购买安全稳定的代理ip。使用了高质量的代理ip后,会不会就能够无后顾之忧了呢?这个可不会这么容易,还要改进方案,有效分配资源,提升工作效率,又快速又稳定又高效的完成爬虫。 方案一、每个进程从接口API中随机取一个IP列... [阅读全文]
最新标签
推荐阅读
02
2019-01
2019年好用的独享IP代理是哪家
现在需要更换IP的工作越来越多,主要是避免IP被封,达到隐藏IP,相对于共享的IP,独享IP无疑是更加的容易获得大家的喜爱,使用效果也是非常好的。如此说来,独享IP是凭借什么优势获得...
21
2019-05
一篇文章让你了解代理IP的原理及分类
在爬取某些网站时,我们经常会设置代理 IP 来避免爬虫程序被封。我们获取代理 IP 地址方式通常提取国内的知名 IP 代理商的免费代理和拨号VPS。这些代理商一般都会提供透明代理,匿名代理,
05
2019-01
怎么验证代理IP有没有用,这样搜索IP地址
可能有些人会疑问,为什么代理IP能进行IP的更换,我看着自己的电脑IP并没有改变,都是设置了固定的IP了。其实使用代理IP之后,我们上网使用的IP并不是自己的IP了呢。
21
2019-03
高可用分布式代理IP池:架构篇
概述历时大致两个月,到现在终于完成了高可用分布式代理IP池(https://github.com/SpiderClub/haipproxy),目前开源在了Github上。写这个项目的原因主要有两点,一是自己平时的部分工作需要和爬虫打
热门文章