qq:800819103
在线客服,实时响应qq群
在线客服,实时响应客服电话
13318873961一、设置User-Agent
1、创建Request对象时指定headers
url = 'http://ip.zdaye.com/'
head = {}
head['User-Agent'] = 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Safari/535.19'
req = request.Request(url, headers=head)
#传入创建好的Request对象
response = request.urlopen(req)
html = response.read().decode('utf-8')
print(html)
2、创建Request对象后使用add_header
req.add_header('User-Agent', 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Safari/535.19')
# 参数为 (key, value)
二、代理IP设置
使用install_opener方法之后,会将程序默认的urlopen方法替换掉。也就是说,如果使用install_opener之后,在该文件中,再次调用urlopen会使用自己创建好的opener。如果不想替换掉,只是想临时使用一下,可以使用opener.open(url),这样就不会对程序默认的urlopen有影响。
from urllib import request
if __name__ == "__main__":
url = www.16yun.cn'
#这是代理IP
proxy = {'http':'168.68.8.88:66666'}
#创建ProxyHandler
proxy_support = request.ProxyHandler(proxy)
#创建Opener
opener = request.build_opener(proxy_support)
#添加User Angent
opener.addheaders = [('User-Agent','Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36')]
#安装OPener
request.install_opener(opener)
#使用自己安装好的Opener
response = request.urlopen(url)
html = response.read().decode("utf-8")
print(html)
相关文章内容简介
1 ua和代理ip在爬虫代理中如何被设置
一、设置User-Agent 1、创建Request对象时指定headers url∵=∵'http://ip.zdaye.com/' head∵=∵{} head['User-Agent']∵=∵'Mozilla/5.0∵(Linux;∵Android∵4.1.1;∵Nexus∵7∵Build/JRO03D)∵AppleWebKit/535.19∵(KHTML, ∵like∵Gecko)∵Chrome/18.0.1025.166 ∵Safari/535.19' req∵=∵request.Request(url,∵headers=head) #传入创建好的Request对象 response∵=∵request.urlopen(req)... [阅读全文]
最新标签
推荐阅读
10
2018-11
动VS静:动态ip和静态ip的区别是什么?
IP地址是指互联网协议地址,IP地址是协议提供的一种统一的地址格式,为网络上的每个网络与每台主机分配一个逻地址,以此来屏蔽物理地址的差异。ip地址有动态ip与静态ip之分,今天我们
13
2019-04
如何伪装自己的IP地址?黑洞IP代理轻松搞定
16
2019-04
不同类型的IP代表着什么呢?
不同类型的IP代表着什么呢!听起来太复杂了?坚持下去,因为现在我们将解释各种IP。
31
2019-01
爬虫遇到这些状态码是什么意思
我们在使用爬虫的过程中会遇到许多问题,并且返回一些状态码给我们,那么这些状态码代表什么意思呢?若是能正确的理解这些状态码的意思,就能对症下药,解决问题,并成功的获取到数据
热门文章