python

关注公众号 jb51net

关闭
首页 > 脚本专栏 > python > Python -lxml模块

Python数据提取-lxml模块

作者:钢铁男儿 

这篇文章主要介绍了Python数据提取-lxml模块,lxml模块和xpath语法的关系,lxml模块的使用场景、lxml模块的安装、谷歌浏览器xpath helper插件的安装和使用等相关内容介绍,需要的朋友可以参考一下

知识点:

1、了解lxml模块和xpath语法

html或xml形式的文本提取特定的内容,就需要我们掌握lxml模块的使用和xpath语法。

lxml模块可以利用xPath规则语法,来快速的定位HEML \ XML 文档中特定元素以及获取节点信息(文本内容、属性值);
XPath (XML Path Language)是一门HTML\XML 文档中查找信息的语言,可用来在HTML|XML文档中对元素和属性进行遍历。
提取xml、html的数据需要lxml模块和xpath语法配合使用;

2、谷歌浏览器xpath helper插件的安装和使用

我们以windows为例进行xpath helper的安装。

xpath helper插件的安装:

3、xpath 的节点关系

学习xpath语法需要先了解xpath中的节点关系。

3.1 xpath中的节点什么

每个html、xml的标签我们都称之为节点,其中最顶层的节点称为根节点。我们以xml为例、html也是一样的。、

3.2 xpath中节点的关系

author title的第一个兄弟节点。

4、xpath语法 - 选取节点以及提取属性或文本内容的语法

4.1 xpath定位节点以及提取属性或文本内容的语法

5、xpath 语法 - 选取特定节点的语法

可以根据标签的属性值,下标等来获取特定的节点。

5.1 选取特定节点的语法

5.2 关于xpath的下标

在xpath中,第一个元素的位置是1;
最后一个元素的位置是last();
倒数第二个是last() - 1;

6、xpath语法 - 选取未知节点的语法

可以同通配符来选取未知的htmlxml的元素。

6.1、选取未知节点的语法

7.lxml模块的安装与使用示例

lxml模块是一个第三方模块,安装之后使用。

7.1 lxml模块的安装

对发送请求获取的xml或html形式的响应内容进行提取。

pip install lxml

7.2 爬虫对html提取的内容

提取标签中的文本内容;
提取标签中的属性的值;
比如,提取a标签中href属性的值,获取url,进而继续发起请求。

7.3 lxml模块的使用

1)、导入lxml的etree库

from lxml import etree

2)、利用etree.HTML,将html字符串(bytes类型或str类型)转化为Element对象,Element对象具有xpath的方法,返回结果的类别。

html = etree.HTML(text)
ret_list = html.xpath("xpath语法规则字符串")

3)、xpath方法返回列表的三种情况
返回空列表:根据xpath语法规则字符串,没有定位到任何元素;
返回由字符串构成的列表:xpath字符串规则匹配的一定是文本内容或某属性的值;
返回由Element对象构成的列表:xpath规则字符串匹配的是标签,列表中的Element对象可以继续进行xpath;

import requests
from lxml import etree

class Tieba(object):

    def __init__(self,name):
        self.url = "https://tieba.baidu.com/f?ie=utf-8&kw={}".format(name)
        self.headers = {
            'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36'
        }

    def get_data(self,url):
        response = requests.get(url,headers=self.headers)
        with open("temp.html","wb") as f:
            f.write(response.content)

        return response.content

    def parse_data(self,data):
        # 创建element对象
        data = data.decode().replace("<!--","").replace("-->","")
        html =etree.HTML(data)

        el_list = html.xpath('//li[@class="j_thread_list clearfix"]/div/div[2]/div[1]/div[1]/a')
        #print(len(el_list))

        data_list = []

        for el in el_list:
            temp = {}
            temp['title'] = el.xpath("./text()")[0]
            temp['link'] = 'http://tieba.baidu.com' + el.xpath("./@href")[0]
            data_list.append(temp)

        # 获取下一页url
        try:
            next_url = 'https:' + html.xpath('//a[contains(text(),"下一页"]/@href')[0]
        except:
            next_url = None

        return data_list,next_url

    def save_data(self,data_list):
        for data in data_list:
            print(data)

    def run(self):
        # url
        # headers
        next_url = self.url

        while True:

            # 发送请求,获取响应
            data = self.get_data(self.url)
            # 从响应中提取数据(数据和翻页用的url)
            data_list,next_url = self.parse_data(data)

            self.save_data(data_list)

            print(next_url)

            # 判断是否终结
            if next_url == None:
                break

if __name__ == '__main__':
    tieba =Tieba("传智播客")
    tieba.run()

8、lxml模块中etree.tostring函数的使用

运行下边的代码,观察对比html的原字符串和打印输出的结果

from lxml import etree

html_str = """<div<<ul>
        <li class="item-1"><a href="link1.html" rel="external nofollow" >first item</a></li>
        <li class="item-1"><a href="link2.html" rel="external nofollow" >second item</a></li>
        <li class="item-inactive"><a href="link3.html" rel="external nofollow" >third item</a></li>
        <li class="item-1"><a href="link4.html" rel="external nofollow" >fourth item</a></li>
        <li class="item=0"><a href="link5.html" rel="external nofollow" >fifth item</a>
        </ur></div>
"""

html = etree.HTML(html_str)

handeled_html_str = etree.tostring(html).decode()
print(handeled_html_str)

结论:

到此这篇关于Python数据提取-lxml模块的文章就介绍到这了,更多相关Python -lxml模块内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

您可能感兴趣的文章:
阅读全文