python的urllib.parse用法及说明
作者:alwaysPractice
这篇文章主要介绍了python的urllib.parse用法及说明,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
python的urllib.parse用法
urllib.parse解析
url:urllib.parse.urlparse(url, scheme='', allow_fragments=True) url:urllib.parse.urlparse(url, scheme='', allow_fragments=True)
简单的使用:
urlparse
from urllib import request, parse2 #解析url print(parse.urlparse('https://movie.douban.com/')) print(parse.urlparse('https://movie.douban.com/', scheme='http')) print(parse.urlparse('movie.douban.com/', scheme='http')) # 下面是结果 ParseResult(scheme='https', netloc='movie.douban.com', path='/', params='', query='', fragment='') ParseResult(scheme='https', netloc='movie.douban.com', path='/', params='', query='', fragment='') ParseResult(scheme='http', netloc='', path='movie.douban.com/', params='', query='', fragment='')
可以看出加了scheme参数和没加的返回结果是有区别的。
而当scheme协议加了,而前面的url也包含协议,一般会忽略后面的scheme参数
既然有解析url,那当然也有反解析url,就是把元素串连成一个url
from urllib import parse # 将列表元素拼接成url url = ['http', 'www', 'baidu', 'com', 'dfdf', 'eddffa'] # 这里至少需要6个元素 print(parse.urlunparse(url)) # 下面是结果6http://www/baidu;com?dfdf#eddffa
urlunparse()接收一个列表的参数,而且列表的长度是有要求的,是必须六个参数以上,要不会抛出异常
urllib.parse.urljoin():这个是将第二个参数的url缺少的部分用第一个参数的url补齐
# 连接两个参数的url, 将第二个参数中缺的部分用第一个参数的补齐,如果第二个有完整的路径,则以第二个为主 print(parse.urljoin('https://movie.douban.com/', 'index')) print(parse.urljoin('https://movie.douban.com/', 'https://accounts.douban.com/login')) # 下面是结果 https://movie.douban.com/index6 https://accounts.douban.com/login
urlencodeurllib库里面有个urlencode函数,可以把key-value这样的键值对转换成我们想要的格式,返回的是a=1&b=2这样的字符串,比如:
>>> from urllib import urlencode >>> data = { ... 'a': 'test', ... 'name': '魔兽' ... } >>> print urlencode(data) a=test&name=%C4%A7%CA%DE 如果只想对一个字符串进行urlencode转换,怎么办?urllib提供另外一个函数:quote() >>> from urllib import quote >>> quote('魔兽') '%C4%A7%CA%DE'
urldecode当urlencode之后的字符串传递过来之后,接受完毕就要解码了——urldecode。urllib提供了unquote()这个函数,可没有urldecode()!
>>> from urllib import unquote >>> unquote('%C4%A7%CA%DE') '\xc4\xa7\xca\xde' >>> print unquote('%C4%A7%CA%DE') 魔兽
urllib.parse模块
python中提供urllib.parse模块用来编码和解码,分别是urlencode()与unquote()
编码urlencode()
# 导入parse模块 from urllib import parse #调用parse模块的urlencode()进行编码 query_string = {'wd':'爬虫'} result = parse.urlencode(query_string) # format函数格式化字符串,进行url拼接 url = 'http://www.baidu.com/s?{}'.format(result) print(url)
对url地址的编码操作
编码quote(string)
from urllib import parse url = "http://www.baidu.com/s?wd={}" words = input('请输入内容') #quote()只能对字符串进行编码 query_string = parse.quote(words) url = url.format(query_string) print(url)
quote()只能对字符串编码,而urlencode()可以对查询字符串进行编码。
解码unquote(string)
from urllib import parse string = '%E7%88%AC%E8%99%AB' result = parse.unquote(string) print(result)
解码就是对编码后的url进行还原
URL地址拼接方式
字符串相加
query1= 'http://www.baidu.com/s?' query2='wd=%E7%88%AC%E8%99%AB' url = query1 + query2
字符串格式化
query2='wd=%E7%88%AC%E8%99%AB' url = 'http://www.baidu.com/s?%s'% query2
format()
# 导入parse模块 from urllib import parse #调用parse模块的urlencode()进行编码 query_string = {'wd':'爬虫'} result = parse.urlencode(query_string) # format函数格式化字符串,进行url拼接 url = 'http://www.baidu.com/s?{}'.format(result) print(url)
总结
以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。