• 【爬虫】第一章:爬虫基础简介


    前戏:
    1.你是否在夜深人静的时候,想看一些会让你更睡不着的图片
    2.你是否在考试或者面试前夕,想看一些具有针对性的题目和面试题
    3.你是否想在杂乱的网络世界中获取你想要的数据

    什么是爬虫:
    - 通过编写程序,模拟浏览器上网,然后让其去互联网上抓取数据的过程。

    爬虫的价值:
    - 实际应用
    - 就业

    爬虫究竟是合法还是违法的?
    - 在法律中是不被禁止的
    - 具有违法风险
    - 善意爬虫 恶意爬虫

    爬虫带来的风险可以体现如下两个方面:
    - 爬虫干扰了被访问网站的正常运营
    - 爬虫抓取了受到法律保护的特定类型的数据或信息

    如何在使用编写爬虫的过程中避免进入局子的厄运呢?
    - 时常的优化自己的程序,避免干扰被访问网站的正常运行
    - 在使用,传播爬取到的数据时,审查抓取到的内容,如果发现了涉及到用户隐私、商业机密等敏感内容需要及时停止爬取或传播

    爬虫在使用场景中的分类
    - 通用爬虫:
    抓取系统重要组成部分。抓取的是一整张页面数据
    - 聚焦爬虫:
    是建立在通用爬虫的基础之上。抓取的是页面中特定的局部内容
    - 增量式爬虫:
    检测网站中数据更新的情况。只会抓取网站中最新更新出来的数据

    爬虫的矛与盾

    反爬机制
    门户网站,可以通过制定相应的策略或者技术手段,防止爬虫程序进行网站数据的爬取

    反反爬策略
    爬虫程序可以通过制定相关的策略或者技术手段,破解门户网站中具备的反爬机制,从而可以获取门户网站中相关的数据

    robots.txt协议
    君子协议。规定了网站中哪些数据可以被爬虫爬取,哪些数据不可以被爬取
    在网站后加上 /robots.txt 即可查询,如:https://www.baidu.com/robots.txt

    http协议
    - 概念:就是服务器和客户端进行数据交互的一种形式
    常用请求头信息
    - User-Agent:请求载体的身份标识
    - Connection:请求完毕后,是断开连接还是保持连接
    常用响应头信息
    - Content-Type:服务器响应回客户端的数据类型
    https协议:
    - 安全的http(经过加密的,加密的方式就是证书密钥加密)

    加密方式:
    1.对称密钥加密(有安全隐患,要是被A拦截了,A就可用密钥打开密文)

    2.非对称密钥加密(公钥可能在中间被拦截、篡改后再继续发送)

    3.证书密钥加密(中间加一个证书认证机构)

  • 相关阅读:
    GCC学习笔记2
    $gcc help
    JVM证书制作步骤+耶鲁 CAS 配置
    oracle VARRAY与for .. loop
    docx转doc的方法
    java keytool 安全证书学习
    数字的格式化(简单几个,不过觉得很有用)
    人应该怎样的活着?!
    转;关于ORM
    终于可以回家了!
  • 原文地址:https://www.cnblogs.com/wujiaolv/p/15968109.html
Copyright © 2020-2023  润新知