• django面试题


    10.Django 本身提供了 runserver,为什么不能用来部署?

    runserver 方法是调试 Django 时经常用到的运行方式,它使用 Django 自带的

    WSGI Server 运行,主要在测试和开发中使用,并且 runserver 开启的方式也是单进程 。

     uWSGI 是一个 Web 服务器,它实现了 WSGI 协议、uwsgi、http 等协议。注意 uwsgi 是一种通信协议,而 uWSGI 是实现 uwsgi 协议和 WSGI 协议的 Web 服务器。uWSGI 具有超快的性能、低内存占用和多 app 管理等优点,并且搭配着 Nginx

    就是一个生产环境了,能够将用户访问请求与应用 app 隔离开,实现真正的部署 。相比来讲,支持的并发量更高,方便管理多进程,发挥多核的优势,提升性能。

    你是最棒的!

    网络编程和前端部分

    1.AJAX是什么,如何使用AJAX?

    ajax(异步的javascript 和xml) 能够刷新局部网页数据而不是重新加载整个网页。

    第一步,创建xmlhttprequest对象,var xmlhttp =new XMLHttpRequest();XMLHttpRequest对象用来和服务器交换数据。

    第二步,使用xmlhttprequest对象的open()和send()方法发送资源请求给服务器。

    第三步,使用xmlhttprequest对象的responseText或responseXML属性获得服务器的响应。

    第四步,onreadystatechange函数,当发送请求到服务器,我们想要服务器响应执行一些功能就需要使用onreadystatechange函数,每次xmlhttprequest对象的readyState发生改变都会触发onreadystatechange函数。

    2. 常见的HTTP状态码有哪些?

    200 OK

    301 Moved Permanently

    302 Found

    304 Not Modified

    307 Temporary Redirect

    400 Bad Request

    401 Unauthorized

    403 Forbidden

    404 Not Found

    410 Gone

    500 Internal Server Error

    501 Not Implemented

    3. Post和get区别?

    GET请求,请求的数据会附加在URL之后,以?分割URL和传输数据,多个参数用&连接。URL的编码格式采用的是ASCII编码,而不是uniclde,即是说所有的非ASCII字符都要编码之后再传输。

    POST请求:POST请求会把请求的数据放置在HTTP请求包的包体中。上面的item=bandsaw就是实际的传输数据。

    因此,GET请求的数据会暴露在地址栏中,而POST请求则不会。

    2、传输数据的大小

    在HTTP规范中,没有对URL的长度和传输的数据大小进行限制。但是在实际开发过程中,对于GET,特定的浏览器和服务器对URL的长度有限制。因此,在使用GET请求时,传输数据会受到URL长度的限制。

    对于POST,由于不是URL传值,理论上是不会受限制的,但是实际上各个服务器会规定对POST提交数据大小进行限制,Apache、IIS都有各自的配置。

    3、安全性

    POST的安全性比GET的高。这里的安全是指真正的安全,而不同于上面GET提到的安全方法中的安全,上面提到的安全仅仅是不修改服务器的数据。比如,在进行登录操作,通过GET请求,用户名和密码都会暴露再URL上,因为登录页面有可能被浏览器缓存以及其他人查看浏览器的历史记录的原因,此时的用户名和密码就很容易被他人拿到了。除此之外,GET请求提交的数据还可能会造成Cross-site request frogery攻击。

    4.cookie 和session 的区别?

    1、cookie数据存放在客户的浏览器上,session数据放在服务器上。

    2、cookie不是很安全,别人可以分析存放在本地的COOKIE并进行COOKIE欺骗考虑到安全应当使用session。

    3、session会在一定时间内保存在服务器上。当访问增多,会比较占用服务器的性能考虑到减轻服务器性能方面,应当使用COOKIE。

    4、单个cookie保存的数据不能超过4K,很多浏览器都限制一个站点最多保存20个cookie。

    5、建议:
       将登陆信息等重要信息存放为SESSION
       其他信息如果需要保留,可以放在COOKIE中

     5.创建一个简单tcp服务器需要的流程

    1.socket创建一个套接字

    2.bind绑定ip和port

    3.listen使套接字变为可以被动链接

    4.accept等待客户端的链接

    5.recv/send接收发送数据

    你是最棒的!

    爬虫和数据库部分

    1.scrapy和scrapy-redis有什么区别?为什么选择redis数据库?

    1) scrapy是一个Python爬虫框架,爬取效率极高,具有高度定制性,但是不支持分布式。而scrapy-redis一套基于redis数据库、运行在scrapy框架之上的组件,可以让scrapy支持分布式策略,Slaver端共享Master端redis数据库里的item队列、请求队列和请求指纹集合。

    2) 为什么选择redis数据库,因为redis支持主从同步,而且数据都是缓存在内存中的,所以基于redis的分布式爬虫,对请求和数据的高频读取效率非常高。

    2. 你用过的爬虫框架或者模块有哪些?谈谈他们的区别或者优缺点?

    Python自带:urllib,urllib2

    第 三 方:requests

    框    架:Scrapy

    urllib和urllib2模块都做与请求URL相关的操作,但他们提供不同的功能。

    urllib2.:urllib2.urlopen可以接受一个Request对象或者url,(在接受Request对象时候,并以此可以来设置一个URL 的headers),urllib.urlopen只接收一个url

    urllib 有urlencode,urllib2没有,因此总是urllib,urllib2常会一起使用的原因

    scrapy是封装起来的框架,他包含了下载器,解析器,日志及异常处理,基于多线程, twisted的方式处理,对于固定单个网站的爬取开发,有优势,但是对于多网站爬取 100个网站,并发及分布式处理方面,不够灵活,不便调整与括展。

    request 是一个HTTP库, 它只是用来,进行请求,对于HTTP请求,他是一个强大的库,下载,解析全部自己处理,灵活性更高,高并发与分布式部署也非常灵活,对于功能可以更好实现.

    Scrapy优缺点:

    优点:scrapy 是异步的

    采取可读性更强的xpath代替正则

    强大的统计和log系统

    同时在不同的url上爬行

    支持shell方式,方便独立调试

    写middleware,方便写一些统一的过滤器

    通过管道的方式存入数据库

    缺点:基于python的爬虫框架,扩展性比较差

    基于twisted框架,运行中的exception是不会干掉reactor,并且异步框架出错后是不会停掉其他任务的,数据出错后难以察觉。

    3.你常用的mysql引擎有哪些?各引擎间有什么区别?

    主要 MyISAM 与 InnoDB 两个引擎,其主要区别如下:

    一、InnoDB 支持事务,MyISAM 不支持,这一点是非常之重要。事务是一种高

    级的处理方式,如在一些列增删改中只要哪个出错还可以回滚还原,而 MyISAM

    就不可以了;

    二、MyISAM 适合查询以及插入为主的应用,InnoDB 适合频繁修改以及涉及到

    安全性较高的应用;

    三、InnoDB 支持外键,MyISAM 不支持;

    四、MyISAM 是默认引擎,InnoDB 需要指定;

    五、InnoDB 不支持 FULLTEXT 类型的索引;

    六、InnoDB 中不保存表的行数,如 select count(*) from table 时,InnoDB;需要

    扫描一遍整个表来计算有多少行,但是 MyISAM 只要简单的读出保存好的行数即

    可。注意的是,当 count(*)语句包含 where 条件时 MyISAM 也需要扫描整个表;

    七、对于自增长的字段,InnoDB 中必须包含只有该字段的索引,但是在 MyISAM

    表中可以和其他字段一起建立联合索引;

    八、清空整个表时,InnoDB 是一行一行的删除,效率非常慢。MyISAM 则会重

    建表;

    九、InnoDB 支持行锁(某些情况下还是锁整表,如 update table set a=1 where

    user like '%lee%'

    4.描述下scrapy框架运行的机制?

    从start_urls里获取第一批url并发送请求,请求由引擎交给调度器入请求队列,获取完毕后,调度器将请求队列里的请求交给下载器去获取请求对应的响应资源,并将响应交给自己编写的解析方法做提取处理:1. 如果提取出需要的数据,则交给管道文件处理;2. 如果提取出url,则继续执行之前的步骤(发送url请求,并由引擎将请求交给调度器入队列...),直到请求队列里没有请求,程序结束。

    5.什么是关联查询,有哪些?

    将多个表联合起来进行查询,主要有内连接、左连接、右连接、全连接(外连接)

    6.写爬虫是用多进程好?还是多线程好? 为什么?

    IO密集型代码(文件处理、网络爬虫等),多线程能够有效提升效率(单线程下有IO操作会进行IO等待,造成不必要的时间浪费,而开启多线程能在线程A等待时,自动切换到线程B,可以不浪费CPU的资源,从而能提升程序执行效率)。在实际的数据采集过程中,既考虑网速和响应的问题,也需要考虑自身机器的硬件情况,来设置多进程或多线程

    7.数据库的优化?

    1. 优化索引、SQL 语句、分析慢查询;

    2. 设计表的时候严格根据数据库的设计范式来设计数据库;

    3. 使用缓存,把经常访问到的数据而且不需要经常变化的数据放在缓存中,能

    节约磁盘IO;

    4. 优化硬件;采用SSD,使用磁盘队列技术(RAID0,RAID1,RDID5)等;

    5. 采用MySQL 内部自带的表分区技术,把数据分层不同的文件,能够提高磁

    盘的读取效率;

    6. 垂直分表;把一些不经常读的数据放在一张表里,节约磁盘I/O;

    7. 主从分离读写;采用主从复制把数据库的读操作和写入操作分离开来;

    8. 分库分表分机器(数据量特别大),主要的的原理就是数据路由;

    9. 选择合适的表引擎,参数上的优化;

    10. 进行架构级别的缓存,静态化和分布式;

    11. 不采用全文索引;

    12. 采用更快的存储方式,例如 NoSQL存储经常访问的数据

    8.常见的反爬虫和应对方法?

    1).通过Headers反爬虫

    从用户请求的Headers反爬虫是最常见的反爬虫策略。很多网站都会对Headers的User-Agent进行检测,还有一部分网站会对Referer进行检测(一些资源网站的防盗链就是检测Referer)。如果遇到了这类反爬虫机制,可以直接在爬虫中添加Headers,将浏览器的User-Agent复制到爬虫的Headers中;或者将Referer值修改为目标网站域名。对于检测Headers的反爬虫,在爬虫中修改或者添加Headers就能很好的绕过。

    2).基于用户行为反爬虫

    还有一部分网站是通过检测用户行为,例如同一IP短时间内多次访问同一页面,或者同一账户短时间内多次进行相同操作。

    大多数网站都是前一种情况,对于这种情况,使用IP代理就可以解决。可以专门写一个爬虫,爬取网上公开的代理ip,检测后全部保存起来。这样的代理ip爬虫经常会用到,最好自己准备一个。有了大量代理ip后可以每请求几次更换一个ip,这在requests或者urllib2中很容易做到,这样就能很容易的绕过第一种反爬虫。

    对于第二种情况,可以在每次请求后随机间隔几秒再进行下一次请求。有些有逻辑漏洞的网站,可以通过请求几次,退出登录,重新登录,继续请求来绕过同一账号短时间内不能多次进行相同请求的限制。

    3).动态页面的反爬虫

    上述的几种情况大多都是出现在静态页面,还有一部分网站,我们需要爬取的数据是通过ajax请求得到,或者通过JavaScript生成的。首先用Fiddler对网络请求进行分析。如果能够找到ajax请求,也能分析出具体的参数和响应的具体含义,我们就能采用上面的方法,直接利用requests或者urllib2模拟ajax请求,对响应的json进行分析得到需要的数据。

    能够直接模拟ajax请求获取数据固然是极好的,但是有些网站把ajax请求的所有参数全部加密了。我们根本没办法构造自己所需要的数据的请求。这种情况下就用selenium+phantomJS,调用浏览器内核,并利用phantomJS执行js来模拟人为操作以及触发页面中的js脚本。从填写表单到点击按钮再到滚动页面,全部都可以模拟,不考虑具体的请求和响应过程,只是完完整整的把人浏览页面获取数据的过程模拟一遍。

    用这套框架几乎能绕过大多数的反爬虫,因为它不是在伪装成浏览器来获取数据(上述的通过添加 Headers一定程度上就是为了伪装成浏览器),它本身就是浏览器,phantomJS就是一个没有界面的浏览器,只是操控这个浏览器的不是人。利selenium+phantomJS能干很多事情,例如识别点触式(12306)或者滑动式的验证码,对页面表单进行暴力破解等。

    9.分布式爬虫主要解决什么问题?

    1)ip

    2)带宽

    3)cpu

    4)io

    10.爬虫过程中验证码怎么处理?

    1.scrapy自带

    2.付费接口

    作者:大蛇王

    源自:

    https://blog.csdn.net/t8116189520/article/details/80165589

    声明:文章著作权归作者所有,如有侵权,请联系小编删除

     
  • 相关阅读:
    关于PHPExcel批处理及json数据处理
    PHP中一些通用和易混淆技术点的最佳编程实践
    PHP采集远程图片
    直接拿来用!最火的Android开源项目
    C#在FORM页面上将excel表格从SQL数据库导出,导入txt格式表格
    SAPABAP編輯器 快速代码提示功能(自動提示)
    SAPABAP编辑器 快速代码提示功能(自动提示)
    ABAP 声明内表,内表包含内表
    ABAP ALV新增可维护的新行
    自底向上,数字化转型的实践和思考
  • 原文地址:https://www.cnblogs.com/ngngng/p/13896768.html
Copyright © 2020-2023  润新知