• python面试题解析(数据库和缓存)


    1. 答:

    关系型数据库:Mysql,Oracel,Microsoft SQL Server

    非关系型数据库:MongoDB,memcache,Redis。

    1. 答:

         MyISAM:默认的MySQL插件式存储引擎,它是在Web、数据仓储和其他应用环境下最常使用的存储引擎之一。注意,通过更改STORAGE_ENGINE配置变量,能够方便地更改MySQL服务器的默认存储引擎。

      InnoDB:用于事务处理应用程序,具有众多特性,包括ACID事务支持。(提供行级锁)

      BDB:可替代InnoDB的事务引擎,支持COMMIT、ROLLBACK和其他事务特性。

      Memory:将所有数据保存在RAM中,在需要快速查找引用和其他类似数据的环境下,可提供极快的访问。

      Merge:允许MySQL DBA或开发人员将一系列等同的MyISAM表以逻辑方式组合在一起,并作为1个对象引用它们。对于诸如数据仓储等VLDB环境十分适合。

      Archive:为大量很少引用的历史、归档、或安全审计信息的存储和检索提供了完美的解决方案。

      Federated:能够将多个分离的MySQL服务器链接起来,从多个物理服务器创建一个逻辑数据库。十分适合于分布式环境或数据集市环境。

      Cluster/NDB:MySQL的簇式数据库引擎,尤其适合于具有高性能查找要求的应用程序,这类查找需求还要求具有最高的正常工作时间和可用性。

    Other:其他存储引擎包括CSV(引用由逗号隔开的用作数据库表的文件),Blackhole(用于临时禁止对数据库的应用程序输入),以及Example引擎(可为快速创建定制的插件式存储引擎提供帮助)。

    1. 答:

    第一范式:确保每列的原子性.
        如果每列(或者每个属性)都是不可再分的最小数据单元(也称为最小的原子单元),则满足第一范式.
        例如:顾客表(姓名、编号、地址、……)其中"地址"列还可以细分为国家、省、市、区等。

    第二范式:在第一范式的基础上更进一层,目标是确保表中的每列都和主键相关.
        如果一个关系满足第一范式,并且除了主键以外的其它列,都依赖于该主键,则满足第二范式.
        例如:订单表(订单编号、产品编号、定购日期、价格、……),"订单编号"为主键,"产品编号"和主键列没有直接的关系,即"产品编号"列不依赖于主键列,应删除该列。

    第三范式:在第二范式的基础上更进一层,目标是确保每列都和主键列直接相关,而不是间接相关.
        如果一个关系满足第二范式,并且除了主键以外的其它列都不依赖于主键列,则满足第三范式.
        为了理解第三范式,需要根据Armstrong公里之一定义传递依赖。假设A、B和C是关系R的三个属性,如果A-〉B且B-〉C,则从这些函数依赖中,可以得出A-〉C,如上所述,依赖A-〉C是传递依赖。
        例如:订单表(订单编号,定购日期,顾客编号,顾客姓名,……),初看该表没有问题,满足第二范式,每列都和主键列"订单编号"相关,再细看你会发现"顾客姓名"和"顾客编号"相关,"顾客编号"和"订单编号"又相关,最后经过传递依赖,"顾客姓名"也和"订单编号"相关。为了满足第三范式,应去掉"顾客姓名"列,放入客户表中。

    4.答:

           一般来说,事务是必须满足4个条件(ACID)::原子性(Atomicity,或称不可分割性)、一致性(Consistency)、隔离性(Isolation,又称独立性)、持久性(Durability)。

    原子性:一个事务(transaction)中的所有操作,要么全部完成,要么全部不完成,不会结束在中间某个环节。事务在执行过程中发生错误,会被回滚(Rollback)到事务开始前的状态,就像这个事务从来没有执行过一样。

    一致性:在事务开始之前和事务结束以后,数据库的完整性没有被破坏。这表示写入的资料必须完全符合所有的预设规则,这包含资料的精确度、串联性以及后续数据库可以自发性地完成预定的工作。

    隔离性:数据库允许多个并发事务同时对其数据进行读写和修改的能力,隔离性可以防止多个事务并发执行时由于交叉执行而导致数据的不一致。事务隔离分为不同级别,包括读未提交(Read uncommitted)、读提交(read committed)、可重复读(repeatable read)和串行化(Serializable)。

    持久性:事务处理结束后,对数据的修改就是永久的,即便系统故障也不会丢失。

    MYSQL 事务处理主要有两种方法:

    1、用 BEGIN, ROLLBACK, COMMIT来实现

    BEGIN 开始一个事务

    ROLLBACK 事务回滚

    COMMIT 事务确认

    2、直接用 SET 来改变 MySQL 的自动提交模式:

    SET AUTOCOMMIT=0 禁止自动提交

    SET AUTOCOMMIT=1 开启自动提交

    5. 答:

    作者模型:一个作者有姓名。

    作者详细模型:把作者的详情放到详情表,包含性别,email地址和出生日期,作者详情模型和作者模型之间是一对一的关系(one-to-one)(类似于每个人和他的身份证之间的关系),在大多数情况下我们没有必要将他们拆分成两张表,这里只是引出一对一的概念。

    出版商模型:出版商有名称,地址,所在城市,省,国家和网站。

    书籍模型:书籍有书名和出版日期,一本书可能会有多个作者,一个作者也可以写多本书,所以作者和书籍的关系就是多对多的关联关系(many-to-many),一本书只应该由一个出版商出版,所以出版商和书籍是一对多关联关系(one-to-many),也被称作外键。

    6. 答:

    高并发之下使用内存数据库Redis,正常则使用表来进行计数。

    DROP TABLE access_counter;

    CREATE TABLE access_counter(
      cnt  INT UNSIGNED NOT NULL 
    );

    INSERT INTO access_counter VALUES(0);
    UPDATE access_counter SET cnt=cnt+1;
    SELECT * FROM access_counter;

    7.略

    8.答:

    视图:视图是由查询结果形成的一张虚拟表,是表通过某种运算得到的一个投影。

    同一张表可以创建多个视图

    存储过程:概念类似于函数,就是把一段代码封装起来,当要执行这一段代码的时候,可以通过调用该存储过程来实现。在封装的语句体里面,

    可以同if/else ,case,while等控制结构。

    可以进行sql编程。

    查看现有的存储过程。

    函数:需要先定义,然后调用(使用)。

    只是规定,这个函数,必须要返回数据——要有返回值

    触发器:(1)触发器是一个特殊的存储过程,它是MySQL在insert、update、delete的时候自动执行的代码块。

    (2)触发器必须定义在特定的表上。

    (3)自动执行,不能直接调用,

    作用:监视某种情况并触发某种操作。

    9.答:
    单列:B+树/哈希索引  --> 查询速度快更新速度慢

        - 普通索引 :加速查找

        - 唯一索引 :加速查询 + 约束(不能重复)

        - 主键索引 :加速查询 + 约束(不能重复) + 不能为空

        - 全文索引 :

    多列:遵循最左前缀规则

        - 联合索引 :

        - 联合唯一索引 :

    其他:

    - 索引合并 :利用多个单例索引查询

        - 覆盖索引 :在索引表中就能将想要的数据查询到

        - 组合索引遵循最左前缀规则

            如果组合索引为:(name,email)

            name and email       -- 使用索引

            name                 -- 使用索引

            email                -- 不使用索引

    10. 答:

         假设联合索引是state/city/zipCode

    那么state就是第一关,city是第二关,zipCode就是第三关

    必须匹配了第一关,才能匹配第二关,匹配了第一关和第二关,才能匹配第三关

    你不能直接到第二关的

    索引的格式就是第一层是state,第二层才是city

    多列索引是先按照第一列进行排序,然后在第一列排好序的基础上再对第二列排序,如果没有第一列的话,直接访问第二列,那第二列肯定是无序的,直接访问后面的列就用不到索引了

    11. 答:主键是唯一标识一条记录,不能有重复,不允许为空,表的外键就是另一表的逐渐,外键可以有重复,可以是空值。

           主键用来保证数据完整性,外键用来和其它表建立联系

           主键只可以有一个,而一个表可以有多个外键。

    12. 答:数学函数:ABS,BIN,MOD,PI

                  聚合函数,AVG,MIN,MAX

                  字符串函数,ASCII,CONCAT

                  日期和时间函数,DATE_ADD,DATE_SUB

                  加密函数

    13. 答:

    1、查询谓词没有使用索引的主要边界,换句话说就是select *,可能会导致不走索引。

    比如,你查询的是SELECT * FROM T WHERE Y=XXX;假如你的T表上有一个包含Y值的组合索引,但是优化器会认为需要一行行的扫描会更有效,这个时候,优化器可能会选择TABLE ACCESS FULL,但是如果换成了SELECT Y FROM T WHERE Y = XXX,优化器会直接去索引中找到Y的值,因为从B树中就可以找到相应的值。

    2、单键值的b树索引列上存在null值,导致COUNT(*)不能走索引。

    如果在B树索引中有一个空值,那么查询诸如SELECT COUNT(*) FROM T 的时候,因为HASHSET中不能存储空值的,所以优化器不会走索引,有两种方式可以让索引有效,一种是SELECT COUNT(*) FROM T WHERE XXX IS NOT NULL或者把这个列的属性改为not null (不能为空)。

    3、索引列上有函数运算,导致不走索引

    如果在T表上有一个索引Y,但是你的查询语句是这样子SELECT * FROM T WHERE FUN(Y) = XXX。这个时候索引也不会被用到,因为你要查询的列中所有的行都需要被计算一遍,因此,如果要让这种sql语句的效率提高的话,在这个表上建立一个基于函数的索引,比如CREATE INDEX IDX FUNT ON T(FUN(Y));这种方式,等于Oracle会建立一个存储所有函数计算结果的值,再进行查询的时候就不需要进行计算了,因为很多函数存在不同返回值,因此必须标明这个函数是有固定返回值的。

    4、隐式转换导致不走索引。

    索引不适用于隐式转换的情况,比如你的SELECT * FROM T WHERE Y = 5 在Y上面有一个索引,但是Y列是VARCHAR2的,那么Oracle会将上面的5进行一个隐式的转换,SELECT * FROM T WHERE TO_NUMBER(Y) = 5,这个时候也是有可能用不到索引的。

    5、表的数据库小或者需要选择大部分数据,不走索引

    在Oracle的初始化参数中,有一个参数是一次读取的数据块的数目,比如你的表只有几个数据块大小,而且可以被Oracle一次性抓取,那么就没有使用索引的必要了,因为抓取索引还需要去根据rowid从数据块中获取相应的元素值,因此在表特别小的情况下,索引没有用到是情理当中的事情。

    6、cbo优化器下统计信息不准确,导致不走索引

    很长时间没有做表分析,或者重新收集表状态信息了,在数据字典中,表的统计信息是不准确的,这个情况下,可能会使用错误的索引,这个效率可能也是比较低的。

    7、!=或者<>(不等于),可能导致不走索引,也可能走 INDEX FAST FULL SCAN

    例如select id  from test where id<>100

    8、表字段的属性导致不走索引,字符型的索引列会导致优化器认为需要扫描索引大部分数据且聚簇因子很大,最终导致弃用索引扫描而改用全表扫描方式,

    由于字符型和数值型的在insert的时候排序不同,字符类型导致了聚簇因子很大,原因是插入顺序与排序顺序不同。详细点说,就是按照数字类型插入(1..3200000),按字符类型('1'...'32000000')t排序,在对字符类型使用大于运算符时,会导致优化器认为需要扫描索引大部分数据且聚簇因子很大,最终导致弃用索引扫描而改用全表扫描方式。

    14.答: 

    slow_query_log = OFF                 # 是否开启慢日志记录

    long_query_time = 2                  # 时间限制,超过此时间,则记录

    slow_query_log_file = /usr/slow.log  # 日志文件

    log_queries_not_using_indexes = OFF  # 为使用索引的搜索是否记录

    15. 答:

       MySQL命令行导出数据库

    1,进入MySQL目录下的bin文件夹:cd MySQL中到bin文件夹的目录

    如我输入的命令行:cd C:Program FilesMySQLMySQL Server 4.1in

    (或者直接将windows的环境变量path中添加该目录)

    2,导出数据库:mysqldump -u 用户名 -p 数据库名 > 导出的文件名

    如我输入的命令行:mysqldump -u root -p news > news.sql   (输入后会让你输入进入MySQL的密码)

    (如果导出单张表的话在数据库名后面输入表名即可)

    3、会看到文件news.sql自动生成到bin文件下 

    命令行导入数据库

    1,将要导入的.sql文件移至bin文件下,这样的路径比较方便
    2,同上面导出的第1步
    3,进入MySQL:mysql -u 用户名 -p

    如我输入的命令行:mysql -u root -p   (输入同样后会让你输入MySQL的密码)

    4,在MySQL-Front中新建你要建的数据库,这时是空数据库,如新建一个名为news的目标数据库
    5,输入:mysql>use 目标数据库名

    如我输入的命令行:mysql>use news;

    6,导入文件:mysql>source 导入的文件名;

    16. 答:

       选取最适用的字段属性。

       使用连接(join)来代替子查询(Sub-Queries)

       使用联合(UNION)来代替手动创建的临时表

       事务

       锁定表

       使用外键

       使用索引

       优化的查询语句

    17. 答:char长度不可变,varchar长度是可变的。char的存取数度还是要比varchar要快得多,因为其长度固定,方便程序的存储与查找;但是char也为此付出的是空间的代价,因为其长度固定,所以难免会有多余的空格占位符占据空间,可谓是以空间换取时间效率,而varchar是以空间效率为首位的。

    再者,char的存储方式是,对英文字符(ASCII)占用1个字节,对一个汉字占用两个字节;而varchar的存储方式是,对每个英文字符占用2个字节,汉字也占用2个字节。

    18. 答:

    弄明白了explain语法返回的每一项结果,我们就能知道查询大致的运行时间了,如果查询里没有用到索引、或者需要扫描的行过多,那么可以感到明显的延迟。因此需要改变查询方式或者新建索引。mysql中的explain语法可以帮助我们改写查询,优化表的结构和索引的设置,从而最大地提高查询效率。当然,在大规模数据量时,索引的建立和维护的代价也是很高的,往往需要较长的时间和较大的空间,如果在不同的列组合上建立索引,空间的开销会更大。因此索引最好设置在需要经常查询的字段中。

    19. 答:两个查询语句的区别在于,下面那一句是从从第一行开始查询。

    20. 答:

            如果使用子查询去优化LIMIT的话,则子查询必须是连续的,某种意义来讲,子查询不应该有where条件,where会过滤数据,使数据失去连续性。
       如果你查询的记录比较大,并且数据传输量比较大,比如包含了text类型的field,则可以通过建立子查询。

       SELECT id,title,content FROM items WHERE id IN (SELECT id FROM items ORDER BY id limit 900000, 10);

       如果limit语句的offset较大,你可以通过传递pk键值来减小offset = 0,这个主键最好是int类型并且auto_increment优化方法有子查询优化法,倒排表优化法,反向查找优化法,limit限制优化法,只查优化法。

    21. 答:

           1、索引合并是把几个索引的范围扫描合并成一个索引。

    2、索引合并的时候,会对索引进行并集,交集或者先交集再并集操作,以便合并成一个索引。

    3、这些需要合并的索引只能是一个表的。不能对多表进行索引合并。

    22. 答:

    覆盖索引只是特定于具体select语录而言的联合索引。也就是说一个联合索引对于某个select语句,通过索引可以直接获取查询结果,而不再需要回表查询啦,就称该联合索引覆盖了这条select语句。

    或者: MySQL可以利用索引返回SELECT 列表中的字段。而不必根据索引再次读取数据文件。包含所有满足查询需要的数据的索引成为覆盖索引(Covering Index)。也就是平时所说的不需要回表操作。

    或者:就是select的数据列只用从索引中就能够取得,不必从数据表中读取,换句话说查询列要被所使用的索引覆盖。

    23. 答:

           通过设置主从数据库实现读写分离,主数据库负责“写操作”,从数据库负责“读操作”,根据压力情况,从数据库可以部署多个提高“读”的速度,借此来提高系统总体的性能。

    要实现读写分离,就要解决主从数据库数据同步的问题,在主数据库写入数据后要保证从数据库的数据也要更新。

    24.答:

    垂直切分

        把不同功能,不同模块的数据分别放到不同的表中,但是如果同一个模块的数据量太大就会存在性能瓶颈

       水平切分

      垂直切分解决不了大表的瓶颈,如果同一个功能中表的数据量过大,就要对该表进行切分,为水平切分

    通俗理解:垂直切分---分不同的模块表;水平切分---分同一个模块下的多个表。

    25. 答:

    1、Redis和Memcache都是将数据存放在内存中,都是内存数据库。不过memcache还可用于缓存其他东西,例如图片、视频等等;

    2、Redis不仅仅支持简单的k/v类型的数据,同时还提供list,set,hash等数据结构的存储;

    3、虚拟内存--Redis当物理内存用完时,可以将一些很久没用到的value 交换到磁盘;

    4、过期策略--memcache在set时就指定,例如set key1 0 0 8,即永不过期。Redis可以通过例如expire 设定,例如expire name 10;

    5、分布式--设定memcache集群,利用magent做一主多从;redis可以做一主多从。都可以一主一从;

    6、存储数据安全--memcache挂掉后,数据没了;redis可以定期保存到磁盘(持久化);

    7、灾难恢复--memcache挂掉后,数据不可恢复; redis数据丢失后可以通过aof恢复;

    8、Redis支持数据的备份,即master-slave模式的数据备份;

    26. 答:

         默认情况下是十六个。

    27. 答:安装Redis, import  redis

    28. 答:

    Redis实例需要装载大量用户在短时间内产生的数据,数以百万计的keys需要被快速的创建。即大量数据插入(mass insertion)

    使用Luke协议

    使用正常模式的Redis客户端执行大量数据插入是不明智的:因为一个个的插入会有大量的时间浪费在每一个命令往返时间上。 
    使用管道(pipelining)还比较靠谱,但是在大量插入数据的同时又需要执行其他新命令时,这时读取数据的同时需要确保尽可能快的写入数据。 
    只有一小部分的客户端支持非阻塞/输出(non-blocking I/O),并且并不是所有客户端能以最大限度的提高吞吐量到高效的方式来分析答复。 

    同时,在分析回复的时候,我们会采用计数器的方法计数,以便在最后能够告诉我们大量插入数据的数据量

    29. 答:

    Redis主从复制可以根据是否是全量分为全量同步和增量同步。

    1 全量同步

      Redis全量复制一般发生在Slave初始化阶段,这时Slave需要将Master上的所有数据都复制一份。具体步骤如下: 
      1)从服务器连接主服务器,发送SYNC命令; 
      2)主服务器接收到SYNC命名后,开始执行BGSAVE命令生成RDB文件并使用缓冲区记录此后执行的所有写命令; 
      3)主服务器BGSAVE执行完后,向所有从服务器发送快照文件,并在发送期间继续记录被执行的写命令; 
      4)从服务器收到快照文件后丢弃所有旧数据,载入收到的快照; 
      5)主服务器快照发送完毕后开始向从服务器发送缓冲区中的写命令; 
      6)从服务器完成对快照的载入,开始接收命令请求,并执行来自主服务器缓冲区的写命令; 

    2 增量同步

      Redis增量复制是指Slave初始化后开始正常工作时主服务器发生的写操作同步到从服务器的过程。 
    增量复制的过程主要是主服务器每执行一个写命令就会向从服务器发送相同的写命令,从服务器接收并执行收到的写命令。

    Redis的正常部署中一般都是一个master用于写操作,若干个slave用于读操作,另外定期的数据备份操作也是单独选址一个slave完成,这样可以最大程度发挥出redis的性能。在部署完成,各masterslave程序启动之后,首先进行第一阶段初始化时的全同步操作,全同步操作完成之后,后续所有写操作都是在master上进行,所有读操作都是在slave上进行,因此用户的写操作需要及时扩散到所有的slave以便保持数据最大程度上的同步。

    30. 答:

    Redis-Sentinel是Redis官方推荐的高可用性(HA)解决方案,当用Redis做Master-slave的高可用方案时,假如master宕机了,Redis本身(包括它的很多客户端)都没有实现自动进行主备切换,而Redis-sentinel本身也是一个独立运行的进程,它能监控多个master-slave集群,发现master宕机后能进行自动切换。

    它的主要功能有以下几点

    不时地监控redis是否按照预期良好地运行;

    如果发现某个redis节点运行出现状况,能够通知另外一个进程(例如它的客户端);

    能够进行自动切换。当一个master节点不可用时,能够选举出master的多个slave(如果有超过一个slave的话)中的一个来作为新的master,其它的slave节点会将它所追随的master的地址改为被提升为master的slave的新地址。

    31.答:

           1.客户端分片

      客户端分片是把分片的逻辑放在Redis客户端实现,通过Redis客户端预先定义好的路由规则,把对Key的访问转发到不同的Redis实例中,最后把返回结果汇集。

     2.Twemproxy

      Twemproxy是由Twitter开源的Redis代理,其基本原理是:Redis客户端把请求发送到Twemproxy,Twemproxy根据路由规则发送到正确的Redis实例,最后Twemproxy把结果汇集返回给客户端。

      Twemproxy通过引入一个代理层,将多个Redis实例进行统一管理,使Redis客户端只需要在Twemproxy上进行操作,而不需要关心后面有多少个Redis实例,从而实现了Redis集群。

    3.Codis

      Twemproxy不能平滑增加Redis实例的问题带来了很大的不便,于是豌豆荚自主研发了Codis,一个支持平滑增加Redis实例的Redis代理软件,其基于Go和C语言开发,并于2014年11月在GitHub上开源。

      Codis包含下面4个部分。

    Codis Proxy:Redis客户端连接到Redis实例的代理,实现了Redis的协议,Redis客户端连接到Codis Proxy进行各种操作。Codis Proxy是无状态的,可以用Keepalived等负载均衡软件部署多个Codis Proxy实现高可用。

    CodisRedis:Codis项目维护的Redis分支,添加了slot和原子的数据迁移命令。Codis上层的 Codis Proxy和Codisconfig只有与这个版本的Redis通信才能正常运行。

    Codisconfig:Codis管理工具。可以执行添加删除CodisRedis节点、添加删除Codis Proxy、数据迁移等操作。另外,Codisconfig自带了HTTP server,里面集成了一个管理界面,方便运维人员观察Codis集群的状态和进行相关的操作,极大提高了运维的方便性,弥补了Twemproxy的缺点。

    ZooKeeper:分布式的、开源的应用程序协调服务,是Hadoop和Hbase的重要组件,其为分布式应用提供一致性服务,提供的功能包括:配置维护、名字服务、分布式同步、组服务等。Codis依赖于ZooKeeper存储数据路由表的信息和Codis Proxy节点的元信息。另外,Codisconfig发起的命令都会通过ZooKeeper同步到CodisProxy的节点。

    4.Redis 3.0集群

      Redis 3.0集群采用了P2P的模式,完全去中心化。Redis把所有的Key分成了16384个slot,每个Redis实例负责其中一部分slot。集群中的所有信息(节点、端口、slot等),都通过节点之间定期的数据交换而更新。

    Redis客户端在任意一个Redis实例发出请求,如果所需数据不在该实例中,通过重定向命 

     5.云服务器上的集群服务

      国内的云服务器提供商阿里云、UCloud等均推出了基于Redis的云存储服务。

    令引导客户端访问所需的实例。

    32. 答:默认有16384个哈希槽

    33. 答:

    Redis的持久化策略:2种

     ---------rdb:快照形式是直接把内存中的数据保存到一个dump文件中,定时保存,保存策略

    这种方式不能完全保证数据持久化,因为是定时保存,所以当redis服务down掉,就会丢失一部分数据,而且数据量大,写操作多的情况下,会引起大量的磁盘IO操作,会影响性能。

     ---------aof:把所有的对redis的服务器进行修改的命令都存到一个文件里,命令的集合

    使用aof做持久化,每一个写命令都通过write函数追加到appendonly.aof中.

    配置方式:启动aof持久化的方式 

    34.  答:

    定时删除

    含义:在设置key的过期时间的同时,为该key创建一个定时器,让定时器在key的过期时间来临时,对key进行删除

    优点:保证内存被尽快释放

    缺点:

    若过期key很多,删除这些key会占用很多的CPU时间,在CPU时间紧张的情况下,CPU不能把所有的时间用来做要紧的事儿,还需要去花时间删除这些key

    定时器的创建耗时,若为每一个设置过期时间的key创建一个定时器(将会有大量的定时器产生),性能影响严重

    没人用

    惰性删除

    含义:key过期的时候不删除,每次从数据库获取key的时候去检查是否过期,若过期,则删除,返回null。

    优点:删除操作只发生在从数据库取出key的时候发生,而且只删除当前key,所以对CPU时间的占用是比较少的,而且此时的删除是已经到了非做不可的地步(如果此时还不删除的话,我们就会获取到了已经过期的key了)

    缺点:若大量的key在超出超时时间后,很久一段时间内,都没有被获取过,那么可能发生内存泄露(无用的垃圾占用了大量的内存)

    定期删除

    含义:每隔一段时间执行一次删除过期key操作

    优点:

    通过限制删除操作的时长和频率,来减少删除操作对CPU时间的占用--处理"定时删除"的缺点

    定期删除过期key--处理"惰性删除"的缺点

    缺点

    在内存友好方面,不如"定时删除"

    在CPU时间友好方面,不如"惰性删除"

    难点

    合理设置删除操作的执行时长(每次删除执行多长时间)和执行频率(每隔多长时间做一次删除)(这个要根据服务器运行情况来定了)

    35. 答:

    redis 内存数据集大小上升到一定大小的时候,就会施行数据淘汰策略。redis 提供 6种数据淘汰策略:
    volatile-lru:从已设置过期时间的数据集(server.db[i].expires)中挑选最近最少使用的数据淘汰
    volatile-ttl:从已设置过期时间的数据集(server.db[i].expires)中挑选将要过期的数据淘汰
    volatile-random:从已设置过期时间的数据集(server.db[i].expires)中任意选择数据淘汰
    allkeys-lru:从数据集(server.db[i].dict)中挑选最近最少使用的数据淘汰
    allkeys-random:从数据集(server.db[i].dict)中任意选择数据淘汰
    no-enviction(驱逐):禁止驱逐数据

    36.略

    37.答:

    Redis提供了两种方式来作消息队列。 
    一个是使用生产者消费模式模式, 
    另一个就是发布订阅者模式。 
    前者会让一个或者多个客户端监听消息队列,一旦消息到达,消费者马上消费,谁先抢到算谁的,如果队列里没有消息,则消费者继续监听。 
    后者也是一个或多个客户端订阅消息频道,只要发布者发布消息,所有订阅者都能收到消息,订阅者都是平等的。

    38.答:

      “发布/订阅”模式包含两种角色,分别是发布者和订阅者。订阅者可以订阅一个或若干个频道(channel),而发布者可以向指定的频道发送消息,所有订阅此频道的订阅者都会收到此消息。

         发布者发送消息的命令是PUBLISH,用法是PUBLISH channel message,如向channel.1说一声“hi”:

            redis>PUBLISH channel.1 hi

            (integer)  0

          这样消息就发出去了。返回值表示接收到这条消息的订阅者数量。发出去的消息不会被持久化,也就是说当客户端订阅channel.1后只能收到后续发布到该频道的消息,之前发送到就收不到了。

           订阅频道的命令是SUBSCRIBE,可以同时订阅多个频道,用法是 SUBSCRIBE channel [channel ...]。

            redis>SUBSCRIBE channel.1

            Reading messages... (press Ctrl-C to quit)

            1) "subscribe"

            2) "channel.1"  

            3) (integer) 1

            执行SUBSCRIBE命令后进入订阅状态,处于此状态下客户端不能使用除SUBSCRIBE/UNSUBSCRIBE/PSUBSCRIBE/PUNSUBSCRIBE这四个属于“发布/订阅”模式之外的命令,否则会报错。

            进入订阅模式后客户端可能收到三种类型的回复。每种类型的回复都包含3个值,第一个值是消息的类型,根据消息类型的不同,第二第三个值的含义也不同。消息类型可能的取值有:

            (1)Subscribe。表示订阅成功的反馈信息。第二个值是订阅成功的频道名称,第三个值是当前客户端订阅的频道数。

            (2)message。这个类型的回复表示收到的消息。第二个值表示产生消息的频道名称,第三个值是消息内容。

            (3)unsubscribe。表示成功取消订阅某个频道。第二个值是对应的频道名称,第三个值是当前客户端订阅的频道数量,当此值为0时客户端会退出订阅状态。

    39. 答:

    Codis 是一个分布式 Redis 解决方案, 对于上层的应用来说, 连接到 Codis Proxy 和连接原生的 Redis Server 没有明显的区别 (不支持的命令列表), 上层应用可以像使用单机的 Redis 一样使用, Codis 底层会处理请求的转发, 不停机的数据迁移等工作, 所有后边的一切事情, 对于前面的客户端来说是透明的, 可以简单的认为后边连接的是一个内存无限大的 Redis 服务.

    40. 答:

    Twemproxy 也叫 nutcraker。是 Twtter 开源的一个 Redis 和 Memcache 代理服务器,主要用于管理 Redis 和Memcached 集群,减少与Cache 服务器直接连接的数量。

    Twemproxy特性:

    轻量级、快速

    保持长连接

    减少了直接与缓存服务器连接的连接数量

    使用 pipelining 处理请求和响应

    支持代理到多台服务器上

    同时支持多个服务器池

    自动分片数据到多个服务器上

    实现完整的 memcached 的 ASCII 和再分配协议

    通过 yaml 文件配置服务器池

    支持多个哈希模式,包括一致性哈希和分布

    能够配置删除故障节点

    可以通过端口监控状态

    支持 linux, *bsd,os x 和 solaris

    41.答:

    class CasNormal(object):

      def __init__(self, host, key):

        self.r = redis.Redis(host)

        self.key = key

        if not self.r.exists(self.key):

          self.r.set(self.key, 0)

      def inc(self):

        with self.r.pipeline() as pipe:

          while True:

            try:

              #监视一个key,如果在执行期间被修改了,会抛出WatchError

              pipe.watch(self.key)

              next_count = 30 + int(pipe.get(self.key))

              pipe.multi()

              if next_count < int(time.time()):

                next_count = int(time.time())

              pipe.set(self.key, next_count)

              pipe.execute()

              return next_count

            except WatchError:

              continue

            finally:

              pipe.reset()

    42.答:Redis Watch 命令用于监视一个(或多个) key ,如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断

    43.略

    44.答:

    分布式锁应该具有的特性(Safety & Liveness)

    我们将从三个特性的角度出发来设计RedLock模型:

    安全性(Safety):在任意时刻,只有一个客户端可以获得锁(排他性)。

    避免死锁:客户端最终一定可以获得锁,即使锁住某个资源的客户端在释放锁之前崩溃或者网络不可达。

    容错性:只要Redsi集群中的大部分节点存活,client就可以进行加锁解锁操作。


    一个Client想要获得一个锁需要以下几个操作:

    得到本地时间

    Client使用相同的key和随机数,按照顺序在每个Master实例中尝试获得锁。在获得锁的过程中,为每一个锁操作设置一个快速失败时间(如果想要获得一个10秒的锁, 那么每一个锁操作的失败时间设为5-50ms)。
    这样可以避免客户端与一个已经故障的Master通信占用太长时间,通过快速失败的方式尽快的与集群中的其他节点完成锁操作。

    客户端计算出与master获得锁操作过程中消耗的时间,当且仅当Client获得锁消耗的时间小于锁的存活时间,并且在一半以上的master节点中获得锁。才认为client成功的获得了锁。

    如果已经获得了锁,Client执行任务的时间窗口是锁的存活时间减去获得锁消耗的时间。

    如果Client获得锁的数量不足一半以上,或获得锁的时间超时,那么认为获得锁失败。客户端需要尝试在所有的master节点中释放锁, 即使在第二步中没有成功获得该Master节点中的锁,仍要进行释放操作。



    45.答:

    一致性哈希要对缓存的key进行哈希,同时也需要服务器也提供一个key进行哈希,然后将其分布在一个闭圆上,在决定一个key的分布的时候,这里通过找到第一个大于这个key的哈希值的服务器就行了。。。

    这样在当一台服务器退出之后,或者有新的服务器加入进来之后,只会影响一部分的key的哈希分布,不至于导致所有的key的哈希分布都失效。

    46. 答:获取指定前缀的key:redis-cli KEYS “oldboy*”

  • 相关阅读:
    数据可视化之DAX篇(二)Power BI中的度量值和计算列,你搞清楚了吗?
    数据可视化之DAX篇(一)Power BI时间智能函数如何处理2月29日的?
    数据可视化之powerBI技巧(二十四)Power BI初学者刚见的错误,帮你轻松处理
    数据可视化之powerBI技巧(二十三)Power BI可视化技巧,使用DAX自定义时间轴
    数据可视化之powerBI技巧(二十二)利用这个方法,帮你搞定Power BI"增量刷新"
    数据可视化之powerBI技巧(二十一)简单三个步骤,轻松管理你的Power BI度量值
    数据可视化之powerBI技巧(二十)采悟:创建度量值,轻松进行分组统计
    数据可视化之powerBI技巧(十九)DAX作图技巧:使用度量值动态分组和配色
    数据可视化之powerBI技巧(十八)Power BI动态技巧:动态显示列和度量值
    JavaScript isFinite() 函数
  • 原文地址:https://www.cnblogs.com/fengkun125/p/9428418.html
Copyright © 2020-2023  润新知