• Redis安装配置及在Python上的应用


    最近在使用Kazoo(开源电话系统) API时,一次请求的处理需要调用几次API,只为了得到一个name和id的对应关系,耗时非常大,开始想使用一种简单的实现,直接将对应关系保存到静态类的静态变量中,但经过测试发现,这种方法还是会造成对应关系经常丢失的情况,后来简单了解了下Redis,发现比较适用于这种情况,具体操作过程如下所示:

    Redis安装与简单配置

    开发环境为Ubuntu 12.04,在Ubuntu下Redis安装很简单,直接通过apt-get即可实现,具体如下所示:

    #安装Redis服务器端
    ~ sudo apt-get install redis-server

    通过这种方式,安装完成后,Redis服务器会自动启动,检查Redis服务器程序:

    root@mcc-ka-api01:~# ps -ef | grep redis
    redis    29481     1  0 15:54 ?        00:00:00 /usr/local/bin/redis-server *:6379
    root     30117 25288  0 16:19 pts/0    00:00:00 grep --color=auto redis

    还可以通过编译安装的方式,具体如下所示:

    Redis下载地址:http://redis.io/download

    $ wget http://download.redis.io/releases/redis-2.8.19.tar.gz
    $ tar xzf redis-2.8.19.tar.gz
    $ cd redis-2.8.19
    $ make
    $ make install

    具体可参考:http://rubyer.me/blog/638/

    Redis的配置文件存储在redis.conf文件中,具体配置如下:

    daemonize yes  #---默认值no,该参数用于定制redis服务是否以守护模式运行。---
    pidfile /usr/local/webserver/redis/run/redis.pid  #默认值/var/run/redis.pid,指定redis服务的进程号文件路径,以守护模式运行时需要配置本参数;
    port 6379   #默认值6379,指定redis服务的端口
    # bind 127.0.0.1  #绑定ip,默认是本机所有网络设备;
    timeout 0   #客户端空闲n秒后断开连接;默认是 0 表示不断开。
    loglevel notice  ###设置服务端的日志级别,有下列几种选择:
        debug:记录详细信息,用于开发或调试;
        verbose:提供很多有用的信息,但是又不像debug那么详尽,默认就是这一选项;
        notice:适度提醒,多用于产品环境;
        warning:仅显示重要的警告信息;
    logfile stdout   ##指定日志的输出路径,默认值stdout,表示输出到屏幕,守护模式时则输出到/dev/null;
    如果要输出日志到syslog中,可以启动syslog-enabled yes,默认该选项值为no。
    # syslog-enabled no
    databases 16   ###指定数据库的数量,默认为16个,默认使用的数据库是DB 0----以下为快照相关的设置:------
    #   save <seconds> <changes>  ##指定多长时间刷新快照至磁盘,这个选项有两个属性值,只有当两个属性值均满足时才会触发;可以设置多种级别,例如默认的参数文件中就设置了:
    save 900 1:每900秒(15分钟)至少一次键值变更时被触发;
    save 300 10:每300秒(5分钟)至少10次键值变更时被触发;
    save 60 10000:每60秒至少10000次键值变更时被触发;
    save 900 1
    save 300 10
    save 60 10000
    rdbcompression yes  ##默认值yes,当dump数据库时使用LZF压缩字符串对象,如果CPU资源比较紧张,可以设置为no,选择不压缩;
    rdbchecksum yes
    # The filename where to dump the DB  数据库文件名
    dbfilename dump.rdb  ##默认值dump.rdb,dump到文件系统中的文件名
    dir /usr/local/webserver/redis/db  ##默认值./,即当前目录,dump出的数据文件的存储路径;
    ----以下为复制相关的设置,复制默认是不启用的,因此在默认的参数文件下列表参数均被注释----
    # slaveof <masterip> <masterport>  ##指定主端ip和端口,用于创建一个镜像服务
    # masterauth <master-password>  ##如果master配置了密码的话,此处也需做设置;
    slave-serve-stale-data yes  ##默认值yes。当slave丢失与master端的连接,或者复制仍在处理,那么slave会有下列两种表现:
    当本参数值为yes时,slave为继续响应客户端请求,尽管数据已不同步甚至没有数据(出现在初次同步的情况下);
    当本参数值为no时,slave会返回"SYNC with master in progreee"的错误信息;
    slave-read-only yes  ##默认从Redis是只读模式
    # repl-ping-slave-period 10  ###默认值10,指定slave定期ping master的周期;
    # repl-timeout 60  ##默认值60,指定超时时间。注意本参数包括批量传输数据和ping响应的时间。
    ------以下为安全相关的设置------
    # requirepass foobared  ###指定一个密码,客户端连接时也需要通过密码才能成功连接;
    # rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52  ###重定义命令,例如将CONFIG命令更名为一个很复杂的名字:
    # rename-command CONFIG ""  取消这个命令;
    -----以下为资源限制方面的设置------
    # maxclients 10000  ##指定客户端的最大并发连接数,默认是没有限制,直到redis无法创建新的进程为止,设置该参数值为0也表示不限制,如果该参数指定了值,当并发连接达到指定值时,redis会关闭所有新连接,并返回'max number of clients reached'的错误信息;
    # maxmemory <bytes>  ###设置redis最大可使用内存。当达到最大内存后,redis会尝试按照设置的回收策略删除键值。如果无法删除键值,或者保留策略设置为不清除,那么redis就会向发出内存的请求返回错误信息。当把redis做为一级LRU的缓存时本参数较为有用。
    # maxmemory-policy volatile-lru  ###默认值volatile-lru,指定清除策略,有下列几种方法:
    volatile-lru -> remove the key with an expire set using an LRU algorithm
    allkeys-lru -> remove any key accordingly to the LRU algorithm
    volatile-random -> remove a random key with an expire set
    allkeys->random -> remove a random key, any key
    volatile-ttl -> remove the key with the nearest expire time (minor TTL)
    noeviction -> don't expire at all, just return an error on write operations
    # maxmemory-samples 3    ###默认值3,LRU和最小TTL策略并非严谨的策略,而是大约估算的方式,因此可以选择取样值以便检查。
    -----以下为APPEND的配置----
    ONLY模式的设置,默认情况下redis采用异步方式dump数据到磁盘上,极端情况下这可能会导致丢失部分数据(比如服务器突然宕机),如果数据比较重要,不希望丢失,可以启用直写的模式,这种模式下redis会将所有接收到的写操作同步到appendonly.aof文件中,该文件会在redis服务启动时在内存中重建所有数据。注意这种模式对性能影响非常之大。
    appendonly no  ##默认值no,指定是否启用直写模式;
    # appendfilename appendonly.aof  ###直写模式的默认文件名appendonly.aof
    appendfsync:调用fsync()方式让操作系统写数据到磁盘上,数据同步方式,有下列几种模式:
        always:每次都调用,比如安全,但速度最慢;
        everysec:每秒同步,这也是默认方式;
        no:不调用fsync,由操作系统决定何时同步,比如快的模式;
        no-appendfsync-on-rewrite:默认值no。当AOF fsync策略设置为always或everysec,后台保存进程会执行大量的I/O操作。某些linux配置下redis可能会阻塞过多的fsync()调用。
        auto-aof-rewrite-percentage:默认值100
        auto-aof-rewrite-min-size:默认值64mb
    # appendfsync always
    appendfsync everysec
    # appendfsync no
    -----以下为高级配置相关的设置----
    hash-max-zipmap-entries:默认值512,当某个map的元素个数达到最大值,但是其中最大元素的长度没有达到设定阀值时,其HASH的编码采用一种特殊的方式(更有效利用内存)。本参数与下面的参数组合使用来设置这两项阀值。设置元素个数;
    hash-max-zipmap-value:默认值64,设置map中元素的值的最大长度;这两个
    list-max-ziplist-entries:默认值512,与hash类似,满足条件的list数组也会采用特殊的方式以节省空间。
    list-max-ziplist-value:默认值64
    set-max-intset-entries:默认值512,当set类型中的数据都是数值类型,并且set中整型元素的数量不超过指定值时,使用特殊的编码方式。
    zset-max-ziplist-entries:默认值128,与hash和list类似。
    zset-max-ziplist-value:默认值64
    activerehashing:默认值yes,用来控制是否自动重建hash。Active rehashing每100微秒使用1微秒cpu时间排序,以重组Redis的hash表。重建是通过一种lazy方式,写入hash表的操作越多,需要执行rehashing的步骤也越多,如果服务器当前空闲,那么rehashing操作会一直执行。如果对实时性要求较高,难以接受redis时不时出现的2微秒的延迟,则可以设置activerehashing为no,否则建议设置为yes,以节省内存空间。

    Redis在Python中的应用

     Redis在Python中的应用也非常简单,不多说,见代码:

    #!/usr/bin/env python
    # -*- coding: utf-8 -*-
    
    import redis
    import random
    from kazoo_api_config import REDIS_HOST, REDIS_PORT, REDIS_DB
    
    
    class MyRedis(object):
    
        __redis_conn = [None, None, None, None, None]
        __host = REDIS_HOST
        __port = REDIS_PORT
        __db = REDIS_DB
    
        @staticmethod
        def get_conn():
            for i in xrange(len(MyRedis.__redis_conn)):
                if MyRedis.__redis_conn[i] is None:
                    MyRedis.__redis_conn[i] = redis.Redis(host=MyRedis.__host, port=MyRedis.__port, db=MyRedis.__db)
            count = random.randint(0, 4)
    
            return count, MyRedis.__redis_conn[count]
    
        @staticmethod
        def get_val(key, retries=5):
            count, conn = MyRedis.get_conn()
            flag = False
            try:
                if conn.exists(key):
                    return conn.get(key)
                else:
                    return False
            except Exception as e:
                flag = True
            finally:
                if flag and retries > 0:
                    MyRedis.__redis_conn[count] = redis.Redis(host=MyRedis.__host, port=MyRedis.__port, db=MyRedis.__db)
                    return MyRedis.get_val(key, retries - 1)
    
        @staticmethod
        def set_val(key, value, retries = 5):
            count, conn = MyRedis.get_conn()
            flag = False
            try:
                return conn.set(key, value)
            except Exception as e:
                flag = True
            finally:
                if flag and retries > 0:
                    MyRedis.__redis_conn[count] = redis.Redis(host=MyRedis.__host, port=MyRedis.__port, db=MyRedis.__db)
                    return MyRedis.set_val(key, value, retries - 1)
    
        @staticmethod
        def get_all_keys(retries=5):
            count, conn = MyRedis.get_conn()
            flag = False
            try:
                return conn.keys()
            except Exception as e:
                flag = True
            finally:
                if flag and retries > 0:
                    MyRedis.__redis_conn[count] = redis.Redis(host=MyRedis.__host, port=MyRedis.__port, db=MyRedis.__db)
                    return MyRedis.get_all_keys(retries - 1)
    
        @staticmethod
        def batch_set(val_dict, retries=5):
            count, conn = MyRedis.get_conn()
            flag = False
            try:
                return conn.mset(val_dict)
            except Exception as e:
                flag = True
            finally:
                if flag and retries > 0:
                    MyRedis.__redis_conn[count] = redis.Redis(host=MyRedis.__host, port=MyRedis.__port, db=MyRedis.__db)
                    return MyRedis.batch_set(val_dict, retries - 1)
    
    
        @staticmethod
        def delete_keys(key, retries=5):
            count, conn = MyRedis.get_conn()
            flag = False
            try:
                return conn.delete(key)
            except Exception as e:
                flag = True
            finally:
                if flag and retries > 0:
                    MyRedis.__redis_conn[count] = redis.Redis(host=MyRedis.__host, port=MyRedis.__port, db=MyRedis.__db)
                    return MyRedis.delete_keys(key, retries - 1)
  • 相关阅读:
    关于gtk的GCond
    位运算符及其应用
    登陆新浪微博&批量下载收藏内容[Python脚本实现]
    海量数据处理算法—Bloom Filter
    海量数据处理算法—BitMap
    VB.NET机房收费系统——组合查询
    非官方的gstreamer学习资料及概念摘要
    [Python入门及进阶笔记00]写在前面(目录/书籍/学习路线/其他)
    [JAVA][Eclipse]JVM terminated. Exit code=13
    介绍一个android开源文件选择对话框:androidfiledialog
  • 原文地址:https://www.cnblogs.com/pflee/p/4175587.html
Copyright © 2020-2023  润新知