• 用 Java 拿下 HTML 分分钟写个小爬虫


    本文适合有 Java 基础知识的人群

    本文作者:HelloGitHub-秦人

    HelloGitHub 推出的《讲解开源项目》系列,今天给大家带来一款开源 Java 版一款网页元素解析框架——jsoup,通过程序自动获取网页数据。

    项目源码地址:https://github.com/jhy/jsoup

    一、项目介绍

    jsoup 是一款 Java 的 HTML 解析器。可直接解析某个 URL 地址的 HTML 文本内容。它提供了一套很省力的 API,可通过 DOM、CSS 以及类似于 jQuery 选择器的操作方法来取出和操作数据。

    jsoup 主要功能:

    1. 从一个 URL、文件或字符串中解析 HTML。
    2. 使用 DOM 或 CSS 选择器来查找、取出数据。
    3. 可操作 HTML 元素、属性、文本。

    二、使用框架

    2.1 准备工作

    • 掌握 HTML 语法
    • Chrome 浏览器调试技巧
    • 掌握开发工具 idea 的基本操作

    2.2 学习源码

    将项目导入 idea 开发工具,会自动下载 maven 项目需要的依赖。源码的项目结构如下:

    快速学习源码是每个程序员必备的技能,我总结了以下几点:

    1. 阅读项目 ReadMe 文件,可以快速知道项目是做什么的。
    2. 概览项目 pom.xml 文件,了解项目引用了哪些依赖。
    3. 查看项目结构、源码目录、测试用例目录,好的项目结构清晰,层次明确。
    4. 运行测试用例,快速体验项目。

    2.3 下载项目

    git clone https://github.com/jhy/jsoup
    

    2.4 运行项目测试代码

    通过上面的方法,我们很快可知 example 目录是测试代码,那我们直接来运行。注:有些测试代码需要稍微改造一下才可以运行。

    例如,jsoup 的 Wikipedia 测试代码:

    public class Wikipedia {
        public static void main(String[] args) throws IOException {
            Document doc = Jsoup.connect("http://en.wikipedia.org/").get();
            log(doc.title());
    
            Elements newsHeadlines = doc.select("#mp-itn b a");
            for (Element headline : newsHeadlines) {
                log("%s
    	%s", headline.attr("title"), headline.absUrl("href"));
            }
        }
    
        private static void log(String msg, String... vals) {
            System.out.println(String.format(msg, vals));
        }
    }
    

    说明:上面代码是获取页面(http://en.wikipedia.org/)包含(#mp-itn b a)选择器的所有元素,并打印这些元素的 title , herf 属性。 维基百科 国内无法访问,所以上面这段代码运行会报错。

    改造后可运行的代码如下:

    public static void main(String[] args) throws IOException {
        Document doc = Jsoup.connect("https://www.baidu.com/").get();
        Elements newsHeadlines = doc.select("a[href]");
        for (Element headline : newsHeadlines) {
            System.out.println("href: " +headline.absUrl("href") );
        }
    }
    

    三、工作原理

    Jsoup 的工作原理,首先需要指定一个 URL,框架发送 HTTP 请求,然后获取响应页面内容,然后通过各种选择器获取页面数据。整个工作流程如下图:

    以上面为例:

    3.1 发请求

    Document doc = Jsoup.connect("https://www.baidu.com/").get();
    

    这行代码就是发送 HTTP 请求,并获取页面响应数据。

    3.2 数据筛选

    Elements newsHeadlines = doc.select("a[href]");
    

    定义选择器,获取匹配选择器的数据。

    3.3 数据处理

    for (Element headline : newsHeadlines) {
            System.out.println("href: " +headline.absUrl("href") );
        }
    

    这里对数据只做了一个简单的数据打印,当然这些数据可写入文件或数据的。

    四、实战

    获取豆瓣读书 -> 新书速递中每本新书的基本信息。包括:书名、书图片链接、作者、内容简介(详情页面)、作者简介(详情页面)、当当网书的价格(详情页面),最后将获取的数据保存到 Excel 文件。

    目标链接:https://book.douban.com/latest?icn=index-latestbook-all

    4.1 项目 pom.xml 文件

    项目引入 jsoup、lombok、easyexcel 三个库。

    <?xml version="1.0" encoding="UTF-8"?>
    <project xmlns="http://maven.apache.org/POM/4.0.0"
             xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
             xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
        <modelVersion>4.0.0</modelVersion>
    
        <groupId>org.example</groupId>
        <artifactId>JsoupTest</artifactId>
        <version>1.0-SNAPSHOT</version>
        <properties>
            <maven.compiler.target>1.8</maven.compiler.target>
            <maven.compiler.source>1.8</maven.compiler.source>
        </properties>
        <dependencies>
            <dependency>
                <groupId>org.jsoup</groupId>
                <artifactId>jsoup</artifactId>
                <version>1.13.1</version>
            </dependency>
            <dependency>
                <groupId>org.projectlombok</groupId>
                <artifactId>lombok</artifactId>
                <version>1.18.12</version>
            </dependency>
            <dependency>
                <groupId>com.alibaba</groupId>
                <artifactId>easyexcel</artifactId>
                <version>2.2.6</version>
            </dependency>
        </dependencies>
    </project>
    

    4.2 解析页面数据

    public class BookInfoUtils {
    
        public static List<BookEntity> getBookInfoList(String url) throws IOException {
            List<BookEntity>  bookEntities=new ArrayList<>();
            Document doc = Jsoup.connect(url).get();
            Elements liDiv = doc.select("#content > div > div.article > ul > li");
            for (Element li : liDiv) {
                Elements urls = li.select("a[href]");
                Elements imgUrl = li.select("a > img");
                Elements bookName = li.select(" div > h2 > a");
                Elements starsCount = li.select(" div > p.rating > span.font-small.color-lightgray");
                Elements author = li.select("div > p.color-gray");
                Elements description = li.select(" div > p.detail");
    
                String bookDetailUrl = urls.get(0).attr("href");
                BookDetailInfo detailInfo = getDetailInfo(bookDetailUrl);
                BookEntity bookEntity = BookEntity.builder()
                        .detailPageUrl(bookDetailUrl)
                        .bookImgUrl(imgUrl.attr("src"))
                        .bookName(bookName.html())
                        .starsCount(starsCount.html())
                        .author(author.text())
                        .bookDetailInfo(detailInfo)
                        .description(description.html())
                        .build();
    //            System.out.println(bookEntity);
                bookEntities.add(bookEntity);
            }
            return bookEntities;
        }
        /**
         *
         * @param detailUrl
         * @return
         * @throws IOException
         */
        public static BookDetailInfo getDetailInfo(String detailUrl)throws IOException{
    
            Document doc = Jsoup.connect(detailUrl).get();
            Elements content = doc.select("body");
    
            Elements price = content.select("#buyinfo-printed > ul.bs.current-version-list > li:nth-child(2) > div.cell.price-btn-wrapper > div.cell.impression_track_mod_buyinfo > div.cell.price-wrapper > a > span");
            Elements author = content.select("#info > span:nth-child(1) > a");
            BookDetailInfo bookDetailInfo = BookDetailInfo.builder()
                    .author(author.html())
                    .authorUrl(author.attr("href"))
                    .price(price.html())
                    .build();
            return bookDetailInfo;
        }
    }
    

    这里的重点是要获取网页对应元素的选择器

    例如:获取 li.select("div > p.color-gray")div > p.color-gray 是怎么知道的。

    使用 chrome 的小伙伴应该都猜到了。打开 chrome 浏览器 Debug 模式,Ctrl + Shift +C 选择一个元素,然后在 html 右键选择 Copy ->Copy selector,这样就可以获取当前元素的选择器。如下图:

    4.3 存储数据到 Excel

    为了数据更好查看,我将通过 jsoup 抓取的数据存储的 Excel 文件,这里我使用的 easyexcel 快速生成 Excel 文件。

    Excel 表头信息

    @Data
    @Builder
    public class ColumnData {
    
        @ExcelProperty("书名称")
        private String bookName;
    
        @ExcelProperty("评分")
        private String starsCount;
    
        @ExcelProperty("作者")
        private String author;
    
        @ExcelProperty("封面图片")
        private String bookImgUrl;
    
        @ExcelProperty("简介")
        private String description;
    
        @ExcelProperty("单价")
        private String price;
    }
    

    生成 Excel 文件

    public class EasyExcelUtils {
    
        public static void simpleWrite(List<BookEntity> bookEntityList) {
            String fileName = "D:\devEnv\JsoupTest\bookList" + System.currentTimeMillis() + ".xlsx";
            EasyExcel.write(fileName, ColumnData.class).sheet("书本详情").doWrite(data(bookEntityList));
            System.out.println("excel文件生成完毕...");
        }
        private static List<ColumnData> data(List<BookEntity> bookEntityList) {
            List<ColumnData> list = new ArrayList<>();
            bookEntityList.forEach(b -> {
                ColumnData data = ColumnData.builder()
                        .bookName(b.getBookName())
                        .starsCount(b.getStarsCount())
                        .author(b.getBookDetailInfo().getAuthor())
                        .bookImgUrl(b.getBookImgUrl())
                        .description(b.getDescription())
                        .price(b.getBookDetailInfo().getPrice())
                        .build();
                list.add(data);
            });
            return list;
        }
    }
    

    4.4 最终展示效果

    最终的效果如下图:

    以上就是从想法到实践,我们就在实战中使用了 jsoup 的基本操作。

    完整代码地址:https://github.com/hellowHuaairen/JsoupTest

    五、最后

    Java HTML Parser 库:jsoup,把它当成简单的爬虫,用起来还是很方便的吧?

    为什么会讲爬虫?大数据,人工智能时代玩的就是数据,数据很重要。作为懂点技术的我们,也需要掌握一种获取网络数据的技能。当然也有一些工具 Fiddler、webscraper 等也可以抓取你想要的数据。

    教程至此,你应该也能对 jsoup 有一些感觉了吧。编程是不是也特别有意思呢?参考我上面的实战案例,有好多网站可以实践一下啦~欢迎在评论区晒你的实战。

    六、参考资料


    关注 HelloGitHub 公众号


    作者:削微寒
    扫描左侧的二维码可以联系到我
    知识共享许可协议
    本作品采用署名-非商业性使用-禁止演绎 4.0 国际 进行许可。

  • 相关阅读:
    【树论】新二叉树
    【贪心】umi的函数
    【模拟】高精度练习之加法
    【模拟】高精度练习之减法
    【贪心】线段覆盖
    【树论】二叉树的序遍历
    【贪心】超级书架
    【动态规划】爱与愁的心痛
    【图论】牛大赛
    【图论】产生数
  • 原文地址:https://www.cnblogs.com/xueweihan/p/13595654.html
Copyright © 2020-2023  润新知