python

关注公众号 jb51net

关闭
首页 > 脚本专栏 > python > Python解析Html

Python实现解析Html的方法与对比

作者:microhex

在最近需要的需求中,需要 python 获取网页内容,并从html中获取到想要的内容,本文主要介绍了两种常用方法并进行了对比,感兴趣的可以了解下

在最近需要的需求中,需要 python 获取网页内容,并从html中获取到想要的内容。这里记录一下两个比较常用的python库对html的解析。

1. BeautifulSoup

它是一个非常流行的python脚本库,用于解析HTML和XML文档。如果你对 java 很熟悉,那么就会容易想到java中也存在一个类似的java库,叫Jsoup,名称相似,效果也差不多。BeautifulSoup提供了简单易用的API,可以通过标签名、属性、CSS选择器等各种方式查找和提取HTML元素.

安装

pip install beautifulsoup4

实例代码:

from bs4 import BeautifulSoup
import requests

# 发送请求获取到 html 内容
response = requests.get("https://www.example.com")
html_content = response.text 

# 创建 BeautifulSoup 对象
soup = BeautifulSoup(html,'html.parser')

# 创建 CSS 选择器查找元素
elements = soup.select(".class-name")
for element in elements:
  print(element.text)

比如我现在想获取新浪新闻的列表:

对 html 进行分析,我们可以发现 class name:

那么我们可以直接填入代码:

def try_to_get_world_news() :
    response = requests.get("https://news.sina.com.cn/world/")
    response.encoding = "utf-8"
    html_data = response.text
    # 创建 BeautifulSoup 对象
    soup = BeautifulSoup(html_data, "html.parser")
    # 通过css选择器cha查找元素
    elements =  soup.select(".news-item")
    for element in elements:
        if element is not None:
           a_links = element.find_all('a')
           if a_links is not None and len(a_links) > 0 :
              a_link = a_links[0]
              a_text = a_link.text.strip()
              a_href = a_link.get('href')
              print("文本:" + a_text + ",链接:" + a_href)

2. lxml

另外一个强大的python库,也是用来处理 HTML 和 XML 文档。当然,它提供了XPath和CSS选择器等功能,也可以很方面的定位和提取HTML库。

安装

pip install lxml

​当然你还可能需要安装一下 cssselect 这个库

pip install cssselect

代码实例

from lxml import html
import requests
import cssselect

# 创建请求对象,获取请求内容
response = requests.get("https://www.example.com")
html_content = response.text

# 创建 lxml 的 HTML 对象
tree = html.fromstring(html_content)

# 通过 css 选择器查找
elements = tree.cssselect(".class-name")
for element in elements:
  print(element.text)

demo:

同样也是上面的例子,直接贴代码:

    response = requests.get("https://news.sina.com.cn/world/")
    response.encoding = "utf-8"
    html_data = response.text
    tree = html.fromstring(html_data)
    elements =  tree.cssselect(".news-item")
    for element in elements:
        print(element)

直接看结果

3. BeautifulSoup 和 lxml 优缺点

BeautifulSoup和lxml都是Python中广泛使用的HTML和XML解析库,它们各自有其优势和特点。以下是BeautifulSoup和lxml的主要区别和优势:

BeautifulSoup的优势:

lxml的优势:

区别:

解析速度:lxml的解析速度通常比BeautifulSoup更快,特别是在处理大型文档时。如果性能是主要考虑因素,lxml可能是更好的选择;

易用性:BeautifulSoup的API更加简单和直观,对于初学者来说更容易上手。而lxml的API相对更加底层和复杂,需要一定的学习成本。

文档支持:BeautifulSoup对于处理不规范的HTML文档更加宽容,而lxml更倾向于处理well-formed的XML文档。

依赖项:BeautifulSoup是一个纯Python库,没有外部依赖。而lxml依赖于C语言编写的libxml2和libxslt库,需要单独安装。

当然,我们的选择就是看自己的需求和偏好了。如果你是性能要求高,追求XPath和其它库的继承,lxml将会是一个比较好的选择;当然,就像我,比较重视简单易用,而且面对的HTML并不是特别的规范,我就会选择 BeautifulSoup。

以上就是Python实现解析Html的方法与对比的详细内容,更多关于Python解析Html的资料请关注脚本之家其它相关文章!

您可能感兴趣的文章:
阅读全文