Python爬虫包BeautifulSoup异常处理(二)
作者:SuPhoebe
这篇文章主要为大家详细介绍了Python爬虫包BeautifulSoup的异常处理,具有一定的参考价值,感兴趣的朋友可以参考一下
面对网络不稳定,页面更新等问题,很可能出现程序异常的问题,所以我们要对程序进行一些异常处理。大家可能觉得处理异常是一个比较麻烦的活,但在面对复杂网页和任务的时候,无疑成为一个很好的代码习惯。
网页‘404'、‘500'等问题
try:
html = urlopen('http://www.pmcaff.com/2221')
except HTTPError as e:
print(e)
返回的是空网页
if html is None:
print('没有找到网页')
目标标签在网页中缺失
try:
#不存在的标签
content = bsObj.nonExistingTag.anotherTag
except AttributeError as e:
print('没有找到你想要的标签')
else:
if content == None:
print('没有找到你想要的标签')
else:
print(content)
实例
if sys.version_info[0] == 2:
from urllib2 import urlopen # Python 2
from urllib2 import HTTPError
else:
from urllib.request import urlopen # Python3
from urllib.error import HTTPError
from bs4 import BeautifulSoup
import sys
def getTitle(url):
try:
html = urlopen(url)
except HTTPError as e:
print(e)
return None
try:
bsObj = BeautifulSoup(html.read())
title = bsObj.body.h1
except AttributeError as e:
return None
return title
title = getTitle("http://www.pythonscraping.com/exercises/exercise1.html")
if title == None:
print("Title could not be found")
else:
print(title)
以上全部为本篇文章的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。
您可能感兴趣的文章:
- Python3实现爬虫爬取赶集网列表功能【基于request和BeautifulSoup模块】
- python3 BeautifulSoup模块使用字典的方法抓取a标签内的数据示例
- python利用beautifulSoup实现爬虫
- python爬虫入门教程--HTML文本的解析库BeautifulSoup(四)
- python3第三方爬虫库BeautifulSoup4安装教程
- python爬虫之BeautifulSoup 使用select方法详解
- Python爬虫beautifulsoup4常用的解析方法总结
- Python爬虫包BeautifulSoup简介与安装(一)
- Python爬虫包 BeautifulSoup 递归抓取实例详解
- Python爬虫库BeautifulSoup获取对象(标签)名,属性,内容,注释
- Python爬虫包BeautifulSoup实例(三)
- python爬虫学习笔记之Beautifulsoup模块用法详解
