python

关注公众号 jb51net

关闭
首页 > 脚本专栏 > python > python搜索并提取网页内容

python实现精准搜索并提取网页核心内容

作者:Python 技术

这篇文章主要为大家介绍了python实现精准搜索并提取网页核心内容的实现,有需要的的朋友可以借鉴参考下,希望能有所帮助祝大家多多进步

ef7ed9130b254c2482fe7a479532eb5d.png

文 | 李晓飞

来源:Python 技术「ID: pythonall」

爬虫程序想必大家都很熟悉了,随便写一个就可以获取网页上的信息,甚至可以通过请求自动生成 Python 脚本[1]。

最近我遇到一个爬虫项目,需要爬取网上的文章。感觉没有什么特别的,但问题是没有限定爬取范围,意味着没有明确的页面的结构。

对于一个页面来说,除了核心文章内容外,还有头部,尾部,左右列表栏等等。有的页面框架用 div 布局,有的用 table,即使都用 div,不太的网站风格和布局也不同。

但问题必须解决,我想,既然搜索引擎抓取到各种网页的核心内容,我们也应该可以搞定,拎起 Python, 说干就干!

各种尝试

如何解决呢?

生成PDF

开始想了一个取巧的方法,就是利用工具(wkhtmltopdf[2])将目标网页生成 PDF 文件。

好处是不必关心页面的具体形式,就像给页面拍了一张照片,文章结构是完整的。

虽然 PDF 是可以源码级检索,但是,生成 PDF 有诸多缺点:

耗费计算资源多、效率低、出错率高,体积太大。

几万条数据已经两百多G,如果数据量上来光存储就是很大的问题。

提取文章内容

不生成PDF,有简单办法就是通过 xpath[3] 提取页面上的所有文字。

但是内容将失去结构,可读性差。更要命的是,网页上有很多无关内容,比如侧边栏,广告,相关链接等,也会被提取下来,影响内容的精确性。

为了保证有一定的结构,还要识别到核心内容,就只能识别并提取文章部分的结构了。像搜索引擎学习,就是想办法识别页面的核心内容。

我们知道,通常情况下,页面上的核心内容(如文章部分)文字比较集中,可以从这个地方着手分析。

于是编写了一段代码,我是用 Scrapy[4] 作为爬虫框架的,这里只截取了其中提取文章部分的代码 :

divs = response.xpath("body//div")
sel = None
maxvalue = 0
for d in divs:
  ds = len(d.xpath(".//div"))
  ps = len(d.xpath(".//p"))
  value = ps - ds
  if value > maxvalue:
    sel = {
      "node": d,
      "value": value
    }
    maxvalue = value 
print("".join(sel['node'].getall()))

简单明了,测试了几个页面确实挺好。

不过大量提取时发现,很多页面提取不到数据。仔细查看发现,有两种情况。

再调整了一下策略,不再区分 div,查看所有的元素。

另外优先选择更多的 p,在其基础上再看更少的 div。调整后的代码如下:

divs = response.xpath("body//*")
sels = []
maxvalue = 0
for d in divs:
  ds = len(d.xpath(".//div"))
  ps = len(d.xpath(".//p"))
  if ps >= maxvalue:
    sel = {
      "node": d,
      "ps": ps,
      "ds": ds
    }
    maxvalue = ps
    sels.append(sel)
 
sels.sort(lambda x: x.ds)
 
sel = sels[0]
 
print("".join(sel['node'].getall()))

经过这样修改之后,确实在一定程度上弥补了前面的问题,但是引入了一个更麻烦的问题。

就是找到的文章主体不稳定,特别容易受到其他部分有些 p 的影响。

选择最优

既然直接计算不太合适,需要重新设计一个算法。

我发现,文字集中的地方是往往是文章主体,而前面的方法中,没有考虑到这一点,只是机械地找出了最大的 p

还有一点,网页结构是个颗 DOM 树[6]

682e695117752314d0c6aaaa6391bce8.png

那么越靠近 p 标签的地方应该越可能是文章主体,也就是说,计算是越靠近 p 的节点权值应该越大,而远离 p 的结点及时拥有很多 p 但是权值也应该小一点。

经过试错,最终代码如下:

def find(node, sel):
    value = 0
    for n in node.xpath("*"):
        if n.xpath("local-name()").get() == "p":
            t = "".join([s.strip() for s in (n.xpath('text()').getall() + n.xpath("*/text()").getall())])
            value += len(t)
        else:
            value += find(n, a)*0.5
    if value > sel["value"]:
        sel["node"] = node
        sel["value"] = value
    return value
 
sel = {
    'value': 0,
    'node': None
}
find(response.xpath("body"), sel)

通过这样改造之后,效果特别好。

为什么呢?其实利用了密度原理,就是说越靠近中心的地方,密度越高,远离中心的地方密度成倍的降低,这样就能筛选出密度中心了。

50% 的坡度比率是如何得到的呢?

其实是通过实验确定的,刚开始时我设置为 90%,但结果时 body 节点总是最优的,因为 body 里包含了所有的文字内容。

反复实验后,确定 50% 是比较好的值,如果在你的应用中不合适,可以做调整。

总结

描述了我如何选取文章主体的方法后,后没有发现其实很是很简单的方法。而这次解决问题的经历,让我感受到了数学的魅力。

一直以来我认为只要了解常规处理问题的方式就足以应对日常编程了,可以当遇到不确定性问题,没有办法抽取出简单模型的问题时,常规思维显然不行。

所以平时我们应该多看一些数学性强的,解决不确定性问题的方法,以便提高我们的编程适应能力,扩展我们的技能范围。

期望这篇短文能对你有所启发,欢迎在留言区交流讨论,比心!

参考资料

[1]

Curl 转 Python: https://curlconverter.com/

[2]

wkhtmltopdf: https://wkhtmltopdf.org/

[3]

xpath: https://www.w3school.com.cn/xpath/xpath_syntax.asp

[4]

Scrapy: https://scrapy.org/

[5]

jQuery: jquery.com

[6]

DOM 树: https://baike.baidu.com/item/DOM%20Tree/6067246

以上就是python实现精准搜索并提取网页核心内容的详细过程,更多关于python搜索并提取网页内容的资料请关注脚本之家其它相关文章!

您可能感兴趣的文章:
阅读全文