• MAC 上抓取网页数据的工具有哪些?


    我希望能够从网页上, 比如气象局数据, 财经数据等等, 我看到官方提供的数据都比较混乱, 有的是一个php文件, 有的是一个文本, 有的干脆不提供数据, 我想问, Mac上, 用什么工具去抓数据, 以及处理这些数据大神们一般用很么方法?

    链接:https://www.zhihu.com/question/27736988/answer/174849599
    https://www.zhihu.com/question/27736988


    1、

    import.io

    用法非常简单,注册后输入网址链接,就可以在可视化界面对数据进行筛选。操作也是超级简单,如下图,唯一缺点就是全英文,不过咱们自己也有,来看看第二个吧。




    2、parsehub

    parsehub

    与以上两种网页抓取不同的是,parsehub需要用户下载客户端之后再使用,打开就像一个浏览器,输入网址后在网页提取出需要的信息。




    (二维码自动识别)


    3、80legs

    80legs

    80legs在由5万台计算机构成的Plura网格 上每天抓取200万网页。 但是在使用上可能并没有前几个那么好用。




    4、Web Scraper

    Web Scraper

    Web Scraper是需要在谷歌应用商店安装的一个插件,基本步骤就是点点点

    详细的教程可以看这里



    (二维码自动识别)


    5、FMiner

    FMiner

    FMiner同样也需要下载客户端进行使用,但它是一款付费产品,有15天的免费使用期。





    总结

    以上介绍的都是国外的工具,如果更喜欢中文界面,可以来试试我们的产品造数造数 -深受广大爬虫爱好者喜欢的云爬虫

    造数比更适合国人使用。直接在原网页基础上操作,还可以分布式爬取、深度爬取等,对数据有需求的可以尝试下。



    其实网页爬取工具很多,大可不必全部掌握,把它当作工具来方便自己的工作才是本文的目标。

    作者:徐小磊
    链接:https://www.zhihu.com/question/27736988/answer/497899625
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

    我在mac上用的是下图这个,日常基本数据的爬取足够了。

    1)日常临时性的,或者快速的数据爬取,就用这个

    2)其他的还是会写写python爬取,毕竟开发需要时间和成本,要考虑投入产出比

     

    应用信息主界面,和八抓鱼差不多爬取规则页面,也和八抓鱼差不多,不过更好看和方便
     
     
  • 相关阅读:
    JDBC初体验
    Linux的常用命令--文件的相关操作
    Spring框架之AOP的基本配置
    坦克大战系列7-策略分析之扫描策略和移动策略
    坦克大战系列8-策略分析之瞄准策略
    CF846F Random Query
    CF388C Fox and Card Game
    CF1097F Alex and a TV Show
    CF1276C Beautiful Rectangle
    [SDOI2016]征途
  • 原文地址:https://www.cnblogs.com/lxwphp/p/11274721.html
Copyright © 2020-2023  润新知