Python实现批量下载文件的示例代码
作者:卑微小文
前言
下载文件是我们在日常工作中常常要做的一件事情。当我们需要从互联网上批量下载大量文件时,手动一个一个去下载显然不够高效。为了解决这个问题,我们可以使用Python编写一个批量下载文件的脚本,让它自动帮我们下载文件。同时,为了避免下载过程中被网站禁止访问,我们也可以运用代理ip。
在本文中,我将会分为以下几个部分来介绍如何使用Python进行批量下载:
- 准备工作
- 批量下载文件
- 添加代理ip
- 处理异常
在本文中,我将使用requests库来进行文件下载和代理设置。我们将会介绍如何通过requests库来下载文件、如何设置代理ip来绕过网站的访问限制,以及如何处理下载过程中可能会出现的异常。
1. 准备工作
在进行批量下载之前,我们需要先确定要下载的文件的URL列表。可以将这些URL存储在一个文本文件中,每行一个URL,例如:
http://example.com/file1.zip http://example.com/file2.zip http://example.com/file3.zip
我们可以使用Python的open函数读取这个文本文件并获取URL列表:
with open('urls.txt', 'r') as f: urls = f.read().splitlines()
这里我们使用了read函数将整个文本文件内容读入内存,然后使用splitlines函数将每一行的URL转换成一个列表。
2. 批量下载文件
批量下载文件的代码主要分为两个部分,一个是从远程服务器下载文件,另一个是将文件保存到本地。
我们可以使用Python的requests库来下载文件,并且可以通过设置stream=True参数来实现分块下载,有利于下载大文件时减少内存占用。
import requests def download_file(url, output_path): with requests.get(url, stream=True) as r: r.raise_for_status() with open(output_path, 'wb') as f: for chunk in r.iter_content(chunk_size=8192): if chunk: f.write(chunk) f.flush()
这个函数接收两个参数,一个是远程服务器上的文件URL,另一个是本地文件路径。内部使用requests.get函数来下载文件,将响应对象以二进制流的方式写入本地文件中。
3. 添加代理ip
有些网站可能会对同一IP地址下载次数进行限制,导致我们无法下载。为了绕过这个限制,我们可以使用代理IP。
代理IP是一种通过转发来实现客户端与服务端间请求、响应的中间服务器。我们可以使用代理服务器来隐藏客户端的真实IP地址,从而绕过某些网站的下载限制。
下面的代码演示了如何设置代理IP:
import requests proxies = { 'http': 'http://127.0.0.1:8080', 'https': 'https://127.0.0.1:8080' } with requests.get(url, proxies=proxies) as r: # 下载文件
这里我们定义了一个字典类型的proxies,其中key为协议类型,value为代理IP地址。然后在requests.get函数中设置proxies参数即可。
4. 处理异常
在实际使用中,我们可能会遇到诸如文件不存在、网络异常等问题,需要对这些异常进行处理,防止程序崩溃。
import requests def download_file(url, output_path): try: with requests.get(url, stream=True) as r: r.raise_for_status() with open(output_path, 'wb') as f: for chunk in r.iter_content(chunk_size=8192): if chunk: f.write(chunk) f.flush() except requests.exceptions.RequestException as e: print(f'Error downloading {url}: {e}')
在代码中,我们使用try/except语句来捕获requests库可能抛出的异常,并使用print语句将异常信息输出到控制台。这样,即使下载文件失败,程序也不会因此停止运行。
完整代码
import requests def download_file(url, output_path): try: with requests.get(url, stream=True) as r: r.raise_for_status() with open(output_path, 'wb') as f: for chunk in r.iter_content(chunk_size=8192): if chunk: f.write(chunk) f.flush() except requests.exceptions.RequestException as e: print(f'Error downloading {url}: {e}') with open('urls.txt', 'r') as f: urls = f.read().splitlines() for url in urls: filename = url.split('/')[-1] download_file(url, filename)
这是一个基本的批量下载代码,可以从urls.txt文件中读取文件URL列表,并自动下载到当前目录中。
如果你需要使用代理ip下载文件,可以使用以下代码:
import requests proxies = { 'http': 'http://127.0.0.1:8080', 'https': 'https://127.0.0.1:8080' } def download_file(url, output_path): try: with requests.get(url, proxies=proxies, stream=True) as r: r.raise_for_status() with open(output_path, 'wb') as f: for chunk in r.iter_content(chunk_size=8192): if chunk: f.write(chunk) f.flush() except requests.exceptions.RequestException as e: print(f'Error downloading {url}: {e}') with open('urls.txt', 'r') as f: urls = f.read().splitlines() for url in urls: filename = url.split('/')[-1] download_file(url, filename)
这个代码与前面的批量下载代码类似,只是在下载文件时设置了proxies参数。
总结
使用Python编写批量下载代码,可以提高工作效率。本文介绍了如何使用requests库来下载文件,如何设置代理IP来绕过某些网站的下载限制,并且展示了如何处理下载过程中可能会出现的异常。
到此这篇关于Python实现批量下载文件的示例代码的文章就介绍到这了,更多相关python批量下载文件内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!