
qq:800819103
在线客服,实时响应
qq群
在线客服,实时响应
客服电话
13318873961一、设置User-Agent
1、创建Request对象时指定headers
url = 'http://ip.zdaye.com/'
head = {}
head['User-Agent'] = 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Safari/535.19'
req = request.Request(url, headers=head)
#传入创建好的Request对象
response = request.urlopen(req)
html = response.read().decode('utf-8')
print(html)
2、创建Request对象后使用add_header
req.add_header('User-Agent', 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Safari/535.19')
# 参数为 (key, value)
二、代理IP设置
使用install_opener方法之后,会将程序默认的urlopen方法替换掉。也就是说,如果使用install_opener之后,在该文件中,再次调用urlopen会使用自己创建好的opener。如果不想替换掉,只是想临时使用一下,可以使用opener.open(url),这样就不会对程序默认的urlopen有影响。
from urllib import request
if __name__ == "__main__":
url = www.16yun.cn'
#这是代理IP
proxy = {'http':'168.68.8.88:66666'}
#创建ProxyHandler
proxy_support = request.ProxyHandler(proxy)
#创建Opener
opener = request.build_opener(proxy_support)
#添加User Angent
opener.addheaders = [('User-Agent','Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36')]
#安装OPener
request.install_opener(opener)
#使用自己安装好的Opener
response = request.urlopen(url)
html = response.read().decode("utf-8")
print(html)
相关文章内容简介
1 ua和代理ip在爬虫代理中如何被设置
一、设置User-Agent 1、创建Request对象时指定headers url∵=∵'http://ip.zdaye.com/' head∵=∵{} head['User-Agent']∵=∵'Mozilla/5.0∵(Linux;∵Android∵4.1.1;∵Nexus∵7∵Build/JRO03D)∵AppleWebKit/535.19∵(KHTML, ∵like∵Gecko)∵Chrome/18.0.1025.166 ∵Safari/535.19' req∵=∵request.Request(url,∵headers=head) #传入创建好的Request对象 response∵=∵request.urlopen(req)... [阅读全文]
最新标签
推荐阅读
30
2019-05
运用代理ip进行仓库分析爬虫
写完了 Stackoverflow 的爬虫,这回打算写 Github 的,利用 Scrapy 框架对 Github 用户和仓库信息进行爬取,图片利用管道下载。
27
2019-02
光纤的固定ip可以换成动态ip吗
现在大家都需要连接网络,一般公司家里都是有网络的,有光纤的也有普通宽带的,这光纤宽带因为速度更快而备受大家的喜欢,所以光纤宽带也有许多人装的,若是我们想使用动态IP,这光纤
18
2019-06
代理IP的有效性受地域和时间影响
代理IP的有效性受地域和时间影响,为什么呢?很多东西都是有时效的,就像食物都是有保质期,代理IP也不例外,这也就是为什么在使用代理IP的过程中有时候会遇到报错的原因之一。
17
2019-04
一步步编写自己的PHP爬取代理IP项目
第一章节主要给大家普及一下爬虫的概念以及相关的知识,让大家对后面的学习打下扎实的基础。如果你是有经验的开发者,完全可以跳过第一章进入第二章的学习了。
热门文章