浅析Python requests 模块
作者:kevin.Xiang
这篇文章主要介绍了Python requests 模块的相关资料,帮助大家利用requests 模块进行爬虫,感兴趣的朋友可以了解下
Python requests 模块
requests 模块是我们使用的 python爬虫 模块 可以完成市场进80%的爬虫需求。
安装
pip install requests
使用
requests模块代码编写的流程:
- - 指定url
- - 发起请求
- - 获取响应对象中的数据
- - 持久化存储
-------------案例------------------------- import requests # 指定url url="https://www.sogou.com/" # 发起请求 response = requests.get(url) # 获取响应对象中的数据 page_text = response.text # 持久化存储 with open('./sogou.html','w',encoding='utf-8') as fp: fp.write() -------------------------------------------
参数
# post 数据 response = requests.post(url=url,data=data,headers=headers) # get 数据 response = requests.get(url=url,data=data,headers=headers) # 返回二进制数据 response.content # 返回字符串数据 response.text # 返回json对象 response.json()
其他了解
1、该模块实现爬取数据前需要查找需要爬取数据的指定URL,可通过浏览器自带抓包功能。
# 浏览器抓取 Ajax 请求 F12 --> Network --> XHR --> Name --> Response
2、上面的headers参数是进行UA伪装为了反反爬
反爬机制:UA检测 --> UA伪装
3、下面是http我们爬包是常用的请求头参数
- accept: 浏览器通过这个头告诉服务器,他所支持的数据类型 - Accept-Charset:浏览器通过这个头告诉服务器,它支持那种字符集 - Accept-Encoding:浏览器通过这个头告诉服务器,支持的压缩格式 - Accept-Language:浏览器通过这个头告诉服务器,他的语言环境 - Host:浏览器同过这个头告诉服务器,想访问哪台主机 - If-ModifiedSince:浏览器通过这个头告诉服务器,缓存数据的时间 - Heferer:浏览器通过这个头告诉服务器,客户及时那个页面来的,防盗链 - Connection:浏览器通过这个头告诉服务器,请求完后是断开链接还是保持链接 - X-Requested-With:XMLHttpRequest 代表通过ajax方式进行访问 - User-Agent:请求载体的身份标识
以上就是浅析Python requests 模块的详细内容,更多关于Python requests 模块的资料请关注脚本之家其它相关文章!
您可能感兴趣的文章:
- Python使用requests模块爬取百度翻译
- Python grequests模块使用场景及代码实例
- Python requests模块安装及使用教程图解
- Python requests模块cookie实例解析
- python爬虫开发之Request模块从安装到详细使用方法与实例全解
- Python3离线安装Requests模块问题
- python爬虫 基于requests模块的get请求实现详解
- python爬虫 基于requests模块发起ajax的get请求实现解析
- python利用re,bs4,requests模块获取股票数据
- Python实现使用request模块下载图片demo示例
- Python3使用requests模块实现显示下载进度的方法详解
- python request 模块详细介绍