python

关注公众号 jb51net

关闭
首页 > 脚本专栏 > python > Python网络请求

Python中网络请求的12种方式

作者:焱垚鑫淼森~

今天,我们要用一行简洁的Python代码来揭开网络请求的神秘面纱,别看这行代码短小,它背后的魔法可强大了,能帮你轻松获取网页数据、实现API调用,甚至更多,无论你是想做数据分析、网站爬虫还是简单的信息查询,这12种方式都是你的得力助手,需要的朋友可以参考下

1. 使用requests模块的基础请求

import requests; 
response = requests.get('https://api.example.com/data')

这是最基本的网络请求,用requests.get()函数向指定URL发送GET请求,response里装的就是响应数据。

2. GET请求带参数

params = {'key': 'value'}; 
response = requests.get('https://example.com/search', params=params)

通过字典params传递查询参数,简单又高效。

3. POST请求发送数据

data = {'username': 'learner'}; 
response = requests.post('https://example.com/login', data=data)

POST请求常用于提交数据,比如登录表单,这里用data字典携带你的信息。

4. 设置请求头

headers = {'User-Agent': 'MyBot/0.1'}; 
response = requests.get('https://example.com', headers=headers)

模拟浏览器或添加特定的请求头,有时候是访问某些网站的关键。

5. 处理JSON响应

response = requests.get('https://api.example.com/data'); 
print(response.json())

直接用.json()方法解析JSON格式的响应,方便快捷。

6. 下载文件

with open('image.jpg', 'wb') 
as f: f.write(requests.get('https://example.com/image.jpg', stream=True).content)

流式下载大文件,避免内存爆棚,记得以二进制模式打开文件哦。

7. 超时设置

response = requests.get('https://slow.example.com', timeout=3)

耐心有限,3秒内没响应就放弃,避免程序挂起。

8. 使用代理

proxies = {'http': 'http://proxy.example.com:8080', 'https': 'https://proxy.example.com:8080'}; response = requests.get('https://example.com', proxies=proxies)

当你需要通过代理服务器访问时,这个技巧很实用。

9. 自动处理重定向

response = requests.get('https://redirect-me.example.com', allow_redirects=False)

默认情况下会自动重定向,加allow_redirects=False可以控制是否跟随重定向。

10. 发送认证信息

response = requests.get('https://protected.example.com', auth=('user', 'pass'))

问需要认证的页面,用户名密码一提交,轻松搞定。

11. 会话管理(保持Cookie)

with requests.Session() as s:
    s.get('https://login.example.com')
    response = s.get('https://profile.example.com')

使用Session对象,可以维持登录状态,访问受限资源。

12. 错误处理

try:
    response = requests.get('https://never.exists.com')
except requests.exceptions.RequestException as e:
    print(e)

优雅地处理请求过程中可能遇到的错误,让你的程序更加健壮。

实战案例:网页内容抓取

想象一下,你想从一个博客网站上抓取最新的文章标题。假设这个网站的每篇文章链接都在一个类名为'article-title'的HTML元素中。你可以这样做:

from bs4 import BeautifulSoup; import requests
 
url = 'https://example-blog.com/latest'
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
 
titles = [title.text for title in soup.find_all(class_='article-title')]
print(titles)

这段代码首先发送GET请求获取网页内容,然后使用BeautifulSoup解析HTML,最后通过列表推导式提取所有文章标题。这就是一个简单的网络爬虫雏形。

练习技巧与方法提示

注意事项

高级技巧:异步请求

随着Python的asyncio库的普及,异步请求成为提高效率的新方式。虽然不是“一行代码”,但了解其重要性是必要的。

import aiohttp
import asyncio
 
async def fetch(session, url):
    async with session.get(url) as response:
        return await response.text()
 
async def main():
    async with aiohttp.ClientSession() as session:
        html = await fetch(session, 'https://example.com')
        print(html)
 
loop = asyncio.get_event_loop()
loop.run_until_complete(main())

这段代码展示了如何使用aiohttp库进行异步HTTP请求,大幅提升了并发请求的能力,适用于大量请求的场景。

以上就是Python中网络请求的12种方式的详细内容,更多关于Python网络请求的资料请关注脚本之家其它相关文章!

您可能感兴趣的文章:
阅读全文