• 使用WebMagic爬取博客标题


    初识WebMagic

    用Java爬虫的话就不得不提Webmagic这个框架,这次来用Webmagic爬取自己的博客所有文章标题

    WebMagic是一个简单方便的Java爬虫框架,其主要结构有下面四个部分组成:

    WebMagic

    • Downloader:Downloader负责从互联网上下载页面,以便后续处理。WebMagic默认使用了Apache HttpClient作为下载工具。

    • PageProcessor:PageProcessor负责解析页面,抽取有用信息,以及发现新的链接。WebMagic使用Jsoup作为HTML解析工具,并基于其开发了解析XPath的工具Xsoup。 在这四个组件中,PageProcessor是我们需要实现的部分

    • Scheduler:Scheduler负责管理待抓取的URL,以及一些去重的工作。WebMagic默认提供了JDK的内存队列来管理URL,并用集合来进行去重。也支持使用Redis进行分布式管理。

    • Pipeline:Pipeline负责抽取结果的处理,包括计算、持久化到文件、数据库等。WebMagic默认提供了“输出到控制台”和“保存到文件”两种结果处理方案。

    爬取博主所有博客的标题

    当然想爬取内容也是可以的

    使用框架的第一步是引入依赖,本文使用maven:

    <dependency>
        <groupId>us.codecraft</groupId>
        <artifactId>webmagic-core</artifactId>
        <version>0.7.3</version>
    </dependency>
    <dependency>
        <groupId>us.codecraft</groupId>
        <artifactId>webmagic-extension</artifactId>
        <version>0.7.3</version>
    </dependency>
    

    这里不得不提一下,作者貌似不再维护了,从17年到现在一直是0.7.3版本

    既然是爬虫,我们就需要告诉爬虫爬哪、爬那些数据?因此创建一个MyProcessor类,实现PageProcessor接口:

    package fun.psgame.demo;
    
    import us.codecraft.webmagic.Page;
    import us.codecraft.webmagic.Site;
    import us.codecraft.webmagic.processor.PageProcessor;
    
    public class MyProcessor implements PageProcessor {
        @Override
        public void process(Page page) {
    
        }
    
        @Override
        public Site getSite() {
            return null;
        }
    }
    

    有两个方法需要实现:
    第一个process(Page page)是我们得到目标页面之后要做的事,这里一般是进行信息筛选。
    第二个是设置爬取行为,比如每隔多长时间访问一次网站(太快会出验证码甚至ban IP)、访问时UserAgent、Cookie是什么之类的。

    首先,我们需要找到要爬取的数据所在的位置,进入博客首页,按F12,通过选择元素找到文章标题所在的位置:

    标题位置

    可以看到标题在postTitle属性div下的a标签里。

    接着我们点击最下面的下一页,可以看到网页地址栏从https://www.cnblogs.com/lixin-link/变成了https://www.cnblogs.com/lixin-link/default.html?page=2,这个网址就是我们的目标URL。

    因此开始实现MyProcessor类:

    package fun.psgame.demo;
    
    import us.codecraft.webmagic.Page;
    import us.codecraft.webmagic.Site;
    import us.codecraft.webmagic.Spider;
    import us.codecraft.webmagic.pipeline.ConsolePipeline;
    import us.codecraft.webmagic.processor.PageProcessor;
    
    import java.util.List;
    
    public class MyProcessor implements PageProcessor {
        //目标网址,信息都在这样的网址上,使用正则匹配
        // .和?在正则里是保留字符,因此转义处理
        public static final String TARGET_URL = "https://www\.cnblogs\.com/lixin-link/default\.html\?page=\d+";
    
        //定义一个UA,模拟浏览器
        public static final String USER_AGENT = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_2) AppleWebKit/537.31 (KHTML, like Gecko) Chrome/26.0.1410.65 Safari/537.31";
    
        @Override
        public void process(Page page) {
            //找到页面里类似“下一页”这种符合的url,加入到要队列进行爬取
            page.addTargetRequests(page.getHtml().links().regex(TARGET_URL).all());
    
            //对每个爬取到的页面进行数据筛选
            //这里使用了xpath语法,意思是找到class属性为forFlow的div标签的,下面的class属性为day的div标签的,下面的class属性为postTitle的div标签的,下的a标签的,文本内容,也就是标题所在的位置(也可以使用css语法进行筛选)
            List<String> list = page.getHtml().xpath("//div[@class="forFlow"]/div[@class="day"]/div[@class="postTitle"]/a/text()").all();
    
            //可以把标题打印出来
            // list.forEach(System.out::println);
    
            //也可以使用把结果放入page中,然后在入口方法中使用Pipeline处理
            page.putField("标题列表", list);
        }
    
        @Override
        public Site getSite() {
            return Site.me()
                    .setSleepTime(1000)//间隔信息
                    .setUserAgent(USER_AGENT);//设置UA
        }
    
        public static void main(String[] args) {
            //程序入口
            Spider.create(new MyBlogProcessor())//要执行的Processor类
                    .addUrl("https://www.cnblogs.com/lixin-link/default.html?page=1")//目标url
                    .addPipeline(new ConsolePipeline())//通过Pipeline来对爬取到的数据进行处理,比如保存成文件,或者输出在控制台
                    .run();//开始方法
        }
    }
    

    如果遇到javax.net.ssl.SSLException: Received fatal alert: protocol_version错误,请参照文末错误处理


    还可以使用注解方式来简化代码:

    package fun.psgame.demo;
    
    import us.codecraft.webmagic.Page;
    import us.codecraft.webmagic.Site;
    import us.codecraft.webmagic.model.AfterExtractor;
    import us.codecraft.webmagic.model.OOSpider;
    import us.codecraft.webmagic.model.annotation.ExtractBy;
    import us.codecraft.webmagic.model.annotation.TargetUrl;
    import us.codecraft.webmagic.pipeline.ConsolePipeline;
    
    import java.util.List;
    
    //目标url,这里.和*进行了默认替换处理,.替换成了.,*替换成了.*
    @TargetUrl("https://www.cnblogs.com/lixin-link/default.html\?page=\d")
    //HelpUrl是为了发现目标url而需要访问的网页
    //@HelpUrl("https://www.cnblogs.com/lixin-link")
    public class MyBlogAnnoProcessor implements AfterExtractor {
    
        //这个注解会根据规则自动设置属性
        @ExtractBy("//div[@class="forFlow"]/div/div[@class="postTitle"]/a/text()")
        List<String> titles;
    
        //这里可以实现AfterExtractor,来做一些注解无法完成的工作
        @Override
        public void afterProcess(Page page) {
            // titles.forEach(System.out::println);
        }
    
        public static void main(String[] args) {
            //注解方式入口
            OOSpider.create(Site.me().setSleepTime(1500)
                    , MyBlogAnnoProcessor.class)//第二个参数是dto类型,这里使用了同一个类,一般来说分开更好
                    .addUrl("https://www.cnblogs.com/lixin-link/default.html?page=1")
                    .addPipeline(new ConsolePipeline())
                    .run();
        }
    }
    
    

    错误处理

    WebMagic默认的HttpClient只会用TLSv1去请求,对于某些只支持TLS1.2的站点,会出现如下错误:

    javax.net.ssl.SSLException: Received fatal alert: protocol_version
    	at sun.security.ssl.Alerts.getSSLException(Alerts.java:208)
    	at sun.security.ssl.Alerts.getSSLException(Alerts.java:154)
    	at sun.security.ssl.SSLSocketImpl.recvAlert(SSLSocketImpl.java:2023)
        ...
    

    作者已经给出解决方法,参照Issues

    说下怎么做,下载源码(最新版已修改,但是maven中的还有这个问题),编译webmagic-core,然后替换本地maven仓库中的webmagic-core-0.7.3.jar,如果嫌麻烦可以使用我编译过的jar包:蓝奏云,密码:8voj


    参照:

  • 相关阅读:
    什么是CMS
    TP3.2项目—微信推广页
    《实用技巧》——让你的网站变成响应式的3个简单步骤
    thinkphp分页带数据
    tp框架表单验证 及ajax
    tp框架做留言板
    随时修改添加,thinkphp小知识
    thinkphp使用ajax
    thinkphp修改和删除数据
    tp框架查询
  • 原文地址:https://www.cnblogs.com/lixin-link/p/12495317.html
Copyright © 2020-2023  润新知