什么是Urllib库
Urllib是Python提供的一个用于操作URL的模块,我们爬取网页的时候,经常需要用到这个库。
升级合并后,模块中的包的位置变化的地方较多。
urllib库对照速查表
Python2.X
Python3.X
urllib
urllib.request, urllib.error, urllib.parse
urllib2
urllib.request, urllib.error
urllib2.urlopen
urllib.request.urlopen
urllib.urlencode
urllib.parse.urlencode
urllib.quote
urllib.request.quote
urllib2.Request
urllib.request.Request
urlparse
urllib.parse
urllib.urlretrieve
urllib.request.urlretrieve
urllib2.URLError
urllib.error.URLError
cookielib.CookieJar
http.CookieJar
urllib库是用于操作URL,爬取页面的python第三方库,同样的库还有requests、httplib2。
在Python2.X中,分urllib和urllib2,但在Python3.X中,都统一合并到urllib中。通过上表可以看到其中常见的变动,依据该变动可快速写出相应版本的python程序。
相对来说,Python3.X对中文的支持比Python2.X友好,所以该博客接下来通过Python3.X来介绍urllib库的一些常见用法。
发送请求
import urllib.request r = urllib.request.urlopen(http://www.python.org/)
首先导入urllib.request
模块,使用urlopen()
对参数中的URL发送请求,返回一个http.client.HTTPResponse
对象。
在urlopen()
中,使用timeout字段,可设定相应的秒数时间之后停止等待响应。除此之外,还可使用r.info()
、r.getcode()
、r.geturl()
获取相应的当前环境信息、状态码、当前网页URL。
读取响应内容
import urllib.request url = "http://www.python.org/" with urllib.request.urlopen(url) as r: r.read()
使用r.read()
读取响应内容到内存,该内容为网页的源代码(可用相应的浏览器“查看网页源代码”功能看到),并可对返回的字符串进行相应解码decode()
。
传递URL参数
import urllib.request import urllib.parse params = urllib.parse.urlencode({'q': 'urllib', 'check_keywords': 'yes', 'area': 'default'}) url = "https://docs.python.org/3/search.html".format(params) r = urllib.request.urlopen(url)
以字符串字典的形式,通过urlencode()
编码,为URL的查询字符串传递数据,
编码后的params为字符串,字典每项键值对以'&'连接:'q=urllib&check_keywords=yes&area=default'
构建后的URL:https://docs.python.org/3/search.html"color: #ff0000">传递中文参数
import urllib.request searchword = urllib.request.quote(input("请输入要查询的关键字:")) url = "https://cn.bing.com/images/async".format(searchword) r = urllib.request.urlopen(url)
该URL是利用bing图片接口,查询关键字q的图片。如果直接将中文传入URL中请求,会导致编码错误。我们需要使用quote()
,对该中文关键字进行URL编码,相应的可以使用unquote()
进行解码。
定制请求头
import urllib.request url = 'https://docs.python.org/3/library/urllib.request.html' headers = { 'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36', 'Referer': 'https://docs.python.org/3/library/urllib.html' } req = urllib.request.Request(url, headers=headers) r = urllib.request.urlopen(req)
有时爬取一些网页时,会出现403错误(Forbidden),即禁止访问。这是因为网站服务器对访问者的Headers属性进行身份验证,例如:通过urllib库发送的请求,默认以”Python-urllib/X.Y”作为User-Agent,其中X为Python的主版本号,Y为副版本号。所以,我们需要通过urllib.request.Request()
构建Request对象,传入字典形式的Headers属性,模拟浏览器。
相应的Headers信息,可通过浏览器的开发者调试工具,”检查“功能的”Network“标签查看相应的网页得到,或使用抓包分析软件Fiddler、Wireshark。
除上述方法外,还可以使用urllib.request.build_opener()
或req.add_header()
定制请求头,详见官方样例。
在Python2.X中,urllib模块和urllib2模块通常一起使用,因为urllib.urlencode()
可以对URL参数进行编码,而urllib2.Request()
可以构建Request对象,定制请求头,然后统一使用urllib2.urlopen()
发送请求。
传递POST请求
import urllib.request import urllib.parse url = 'https://passport.cnblogs.com/user/signin"color: #ff0000">下载远程数据到本地
import urllib.request url = "https://www.python.org/static/img/python-logo.png" urllib.request.urlretrieve(url, "python-logo.png")爬取图片、视频等远程数据时,可使用
urlretrieve()
下载到本地。第一个参数为要下载的url,第二个参数为下载后的存放路径。
该样例下载python官网logo到当前目录下,返回元组(filename, headers)。
设置代理IP
import urllib.request url = "https://www.cnblogs.com/" proxy_ip = "180.106.16.132:8118" proxy = urllib.request.ProxyHandler({'http': proxy_ip}) opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler) urllib.request.install_opener(opener) r = urllib.request.urlopen(url)有时频繁的爬取一个网页,会被网站服务器屏蔽IP。这时,可通过上述方法设置代理IP。
首先,通过网上代理IP的网站找一个可以用的IP,构建
ProxyHandler()
对象,将'http'和代理IP以字典形式作为参数传入,设置代理服务器信息。再构建opener对象,将proxy和HTTPHandler类传入。通过installl_opener()
将opener设置成全局,当用urlopen()
发送请求时,会使用之前设置的信息来发送相应的请求。异常处理
import urllib.request import urllib.error url = "http://www.balabalabala.org" try: r = urllib.request.urlopen(url) except urllib.error.URLError as e: if hasattr(e, 'code'): print(e.code) if hasattr(e, 'reason'): print(e.reason)可以使用URLError类,处理一些URL相关异常。导入
urllib.error
,捕获URLError异常后,因为只有发生HTTPError异常(URLError子类)时,才会有异常状态码e.code,所以需要判断异常是否有属性code。Cookie的使用
import urllib.request import http.cookiejar url = "http://www.balabalabala.org/" cjar = http.cookiejar.CookieJar() opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cjar)) urllib.request.install_opener(opener) r = urllib.request.urlopen(url)通过无状态协议HTTP访问网页时,Cookie维持会话间的状态。例如:有些网站需要登录操作,第一次可通过提交POST表单来登录,当爬取该网站下的其它站点时,可以使用Cookie来保持登录状态,而不用每次都通过提交表单来登录。
首先,构建
CookieJar()
对象cjar,再使用HTTPCookieProcessor()
处理器,处理cjar,并通过build_opener()
构建opener对象,设置成全局,通过urlopen()
发送请求。总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对的支持。
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新动态
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]