java

关注公众号 jb51net

关闭
首页 > 软件编程 > java > Java爬虫利器Jsoup

详解Java爬虫利器Jsoup

作者:蜀山剑客李沐白

Jsoup是一款Java语言开发的HTML解析器,用于解析HTML文档以及对HTML文档进行操作,处理等,本文就将详细给大家介绍一下Java中的爬虫利器Jsoup,感兴趣的同学可以参考一下

Jsoup的概述

Jsoup是一款Java语言开发的HTML解析器,用于解析HTML文档以及对HTML文档进行操作,处理等。它提供了类似于jQuery的DOM操作方法,以及用于HTML元素遍历、迭代、查询以及修改等操作的API,同时还支持CSS选择器和正则表达式的解析。

Jsoup的特点

Jsoup的优点

Jsoup的核心类

以下是Jsoup中最重要的几个核心类:

Jsoup的用法

这里我将从以下方面介绍Jsoup的用法:

1.导入Jsoup到项目中

在使用Jsoup前,需要将它添加到项目的依赖中。如果使用Maven,只需要在pom.xml文件中添加下面的代码即可:

<dependency>
    <groupId>org.jsoup</groupId>
    <artifactId>jsoup</artifactId>
    <version>1.14.3</version>
</dependency>

2.解析HTML文档

解析HTML的第一步是将HTML文档加载到Jsoup的Document对象中,以便进行后续操作。可以通过以下方式实现:

String html = "<html><head><title>Jsoup Example</title></head>"
        + "<body><p>Hello world!</p></body></html>";
Document doc = Jsoup.parse(html);

其中,Jsoup.parse(html)可以将字符串转换为Document对象,而html则是需要解析的HTML。

3.从URL加载HTML

除了直接解析HTML字符串,Jsoup还支持从URL地址获取HTML内容并进行解析。可以使用以下代码:

String url = "http://www.example.com/";
Document doc = Jsoup.connect(url).get();

其中,Jsoup.connect(url).get()可以从指定的url地址获取HTML内容并解析成Document对象。

4.使用选择器查找元素

Jsoup支持类似于jQuery的CSS选择器语法,可以用非常简单的方式查找HTML元素。例如,查找所有的p标签,可以使用如下代码:

Elements paragraphs = doc.select("p");

select()方法会返回匹配选择器的元素的集合。

更进一步来说,选择器可以根据标签名、属性、样式等多种条件筛选元素。例如,以下代码会查找所有带有href属性的链接:

Elements links = doc.select("a[href]");

如果要查找指定class的元素,可以使用类似于CSS的“.classname”语法:

Elements elementsByClass = doc.select(".classname");

同样地,也支持按属性值进行查找:

Elements links = doc.select("a[href=\"#\"]");

这些选择器可以非常灵活地精准定位到需要的HTML元素。

5.获取元素的属性和内容

在定位到所需的HTML元素后,可以使用Jsoup提供的方法获取元素的属性和内容。例如,以下代码可以获取a标签的href属性和显示的文本内容:

Element link = doc.select("a").first();
String href = link.attr("href");
String text = link.text();

attr()方法可以获取指定属性的值,而text()方法可以获取标签之间的文本内容。

6.修改HTML文档

Jsoup不仅可以解析HTML文档,还可以修改文档中的元素、属性等内容。可以使用以下代码:

Element link = doc.select("a").first();
link.attr("href", "http://www.newsite.com/");
link.text("New Site");

这些方法可以非常方便地修改HTML文档中的元素和属性。

7.处理HTML中的正文

有时候我们只需要解析HTML中的正文部分而不是全文,这种情况下可以使用Jsoup提供的方法实现。例如,以下代码可以提取HTML中的所有正文段落:

Document doc = Jsoup.parse(html);
Elements paragraphs = doc.select("p");
String text = paragraphs.text();

上面代码中,Jsoup首先解析HTML文档并查找所有的p标签,然后使用text()方法提取正文内容。

Jsoup的高级用法

了解了基本用法后,我们可以进一步了解Jsoup的高级用法,例如:

1.从HTML中提取图片

可以使用以下代码提取出HTML文档中的所有图片:

Document doc = Jsoup.connect(url).get();
Elements images = doc.select("img[src~=(?i)\\.(png|jpe?g|gif)]");

这里的正则表达式可以过滤掉非图片类型的元素。

2.从HTML中提取所有链接

可以使用以下代码提取出HTML中的所有链接:

Document doc = Jsoup.connect(url).get();
Elements links = doc.select("a[href]");

然后遍历links集合,即可获取每个链接的href属性和文本内容。

3.自定义User-Agent和超时时间

可以通过以下方式指定Jsoup连接的User-Agent和超时时间:

String url = "http://www.example.com/";
Connection conn = Jsoup.connect(url);
conn.userAgent("Mozilla/5.0 (Windows NT 6.1; WOW64; rv:29.0) Gecko/20100101 Firefox/29.0");
conn.timeout(5000);
Document doc = conn.get();

其中userAgent()方法可以设置User-Agent,timeout()方法可以设置超时时间,单位是毫秒。

4.处理HTML中的中文编码问题

当解析包含中文字符的HTML文档时,可能会出现乱码等问题。可以通过以下方式解决:

Document doc = Jsoup.parse(html, "UTF-8");
String title = doc.title();
String text = doc.text();

这里的"UTF-8"指定了HTML文档的字符集,以解决编码问题。

5.处理HTML中的表格

可以使用以下代码提取表格中的数据:

Document doc = Jsoup.connect(url).get();
Elements tableRows = doc.select("table tr");
for (Element row : tableRows) {
    Elements cells = row.select("td");
    for (Element cell : cells) {
        String cellText = cell.text();
    }
}

这里先通过选择器查找所有的tr标签,然后对每个tr标签内的td标签进行遍历,获取单元格的内容。

6.处理HTML中的特殊字符

有些HTML文档中包含特殊字符,例如©、™等符号,这些符号可能会导致解析错误。可以使用以下方式解决:

Document doc = Jsoup.parse(html);
doc.outputSettings().escapeMode(EscapeMode.base);
String text = doc.text();

这里的escapeMode()方法可以指定转义字符的模式,base模式表示只转义基本的字符,其他的字符不做转义。

7.使用代理连接网站

有些网站可能会禁止爬虫访问,可以使用代理服务器连接到网站。可以使用以下代码设置代理:

String url = "http://www.example.com/";
Proxy proxy = new Proxy(Proxy.Type.HTTP, new InetSocketAddress("proxyhost", 8080));
Connection conn = Jsoup.connect(url).proxy(proxy);
Document doc = conn.get();

其中proxy()方法可以设置代理服务器的地址和端口号。

8.处理HTML中的连接

可以使用以下代码将相对路径转换为绝对路径:

String url = "http://www.example.com/";
Document doc = Jsoup.connect(url).get();
Elements links = doc.select("a[href]");
for (Element link : links) {
    String absLink = link.attr("abs:href");
}

这里的abs()方法可以将相对路径转换为绝对路径,从而能够正确地访问链接。

9.使用Jsoup处理XML

除了HTML,Jsoup还能够处理XML文档。可以使用以下代码解析XML文档:

String xml = "<root><item>1</item><item>2</item><item>3</item></root>";
Document doc = Jsoup.parse(xml, "", Parser.xmlParser());
Elements items = doc.select("item");

这里的xmlParser()方法将Jsoup的解析器设置为XML模式,然后就可以使用CSS选择器查找XML元素了。

10.处理HTML中的图片

有时候我们需要将HTML中的图片下载到本地使用。可以使用以下代码实现:

String imageUrl = "http://www.example.com/image.jpg";
Connection.Response resultImageResponse = Jsoup.connect(imageUrl).ignoreContentType(true).maxBodySize(0).execute();
byte[] imageBytes = resultImageResponse.bodyAsBytes();

这里的ignoreContentType()方法可以忽略ContentType的检查,maxBodySize()方法可以设置请求的最大字节数。然后可以将结果写入文件或者流中,以保存图片内容。

以上就是详解Java爬虫利器Jsoup的用法的详细内容,更多关于Java爬虫利器Jsoup的资料请关注脚本之家其它相关文章!

您可能感兴趣的文章:
阅读全文