• (转)python logging模块


    原文:http://www.cnblogs.com/dahu-daqing/p/7040764.html

    1 logging模块简介

    logging模块是Python内置的标准模块,主要用于输出运行日志,可以设置输出日志的等级、日志保存路径、日志文件回滚等;相比print,具备如下优点:

    1. 可以通过设置不同的日志等级,在release版本中只输出重要信息,而不必显示大量的调试信息;
    2. print将所有信息都输出到标准输出中,严重影响开发者从标准输出中查看其它数据;logging则可以由开发者决定将信息输出到什么地方,以及怎么输出;

    2 logging模块使用

    2.1 基本使用

    配置logging基本的设置,然后在控制台输出日志,

    复制代码
    复制代码
    import logging
    logging.basicConfig(level = logging.INFO,format = '%(asctime)s - %(name)s - %(levelname)s - %(message)s')
    logger = logging.getLogger(__name__)
    
    logger.info("Start print log")
    logger.debug("Do something")
    logger.warning("Something maybe fail.")
    logger.info("Finish")
    复制代码
    复制代码

    运行时,控制台输出,

    2016-10-09 19:11:19,434 - __main__ - INFO - Start print log
    2016-10-09 19:11:19,434 - __main__ - WARNING - Something maybe fail.
    2016-10-09 19:11:19,434 - __main__ - INFO - Finish

    logging中可以选择很多消息级别,如debug、info、warning、error以及critical。通过赋予logger或者handler不同的级别,开发者就可以只输出错误信息到特定的记录文件,或者在调试时只记录调试信息。

    例如,我们将logger的级别改为DEBUG,再观察一下输出结果,

    logging.basicConfig(level = logging.DEBUG,format = '%(asctime)s - %(name)s - %(levelname)s - %(message)s')

    控制台输出,可以发现,输出了debug的信息。

    2016-10-09 19:12:08,289 - __main__ - INFO - Start print log
    2016-10-09 19:12:08,289 - __main__ - DEBUG - Do something
    2016-10-09 19:12:08,289 - __main__ - WARNING - Something maybe fail.
    2016-10-09 19:12:08,289 - __main__ - INFO - Finish

    logging.basicConfig函数各参数:

    filename:指定日志文件名;

    filemode:和file函数意义相同,指定日志文件的打开模式,'w'或者'a';

    format:指定输出的格式和内容,format可以输出很多有用的信息,

    参数:作用
    
    %(levelno)s:打印日志级别的数值
    %(levelname)s:打印日志级别的名称
    %(pathname)s:打印当前执行程序的路径,其实就是sys.argv[0]
    %(filename)s:打印当前执行程序名
    %(funcName)s:打印日志的当前函数
    %(lineno)d:打印日志的当前行号
    %(asctime)s:打印日志的时间
    %(thread)d:打印线程ID
    %(threadName)s:打印线程名称
    %(process)d:打印进程ID
    %(message)s:打印日志信息

    datefmt:指定时间格式,同time.strftime();

    level:设置日志级别,默认为logging.WARNNING;

    stream:指定将日志的输出流,可以指定输出到sys.stderr,sys.stdout或者文件,默认输出到sys.stderr,当stream和filename同时指定时,stream被忽略;

    2.2 将日志写入到文件

    2.2.1 将日志写入到文件

    设置logging,创建一个FileHandler,并对输出消息的格式进行设置,将其添加到logger,然后将日志写入到指定的文件中,

    复制代码
    复制代码
    import logging
    logger = logging.getLogger(__name__)
    logger.setLevel(level = logging.INFO)
    handler = logging.FileHandler("log.txt")
    handler.setLevel(logging.INFO)
    formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
    handler.setFormatter(formatter)
    logger.addHandler(handler)
    
    logger.info("Start print log")
    logger.debug("Do something")
    logger.warning("Something maybe fail.")
    logger.info("Finish")
    复制代码
    复制代码

    log.txt中日志数据为,

    2016-10-09 19:01:13,263 - __main__ - INFO - Start print log
    2016-10-09 19:01:13,263 - __main__ - WARNING - Something maybe fail.
    2016-10-09 19:01:13,263 - __main__ - INFO - Finish

    2.2.2 将日志同时输出到屏幕和日志文件

    logger中添加StreamHandler,可以将日志输出到屏幕上,

    复制代码
    复制代码
    import logging
    logger = logging.getLogger(__name__)
    logger.setLevel(level = logging.INFO)
    handler = logging.FileHandler("log.txt")
    handler.setLevel(logging.INFO)
    formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
    handler.setFormatter(formatter)
    
    console = logging.StreamHandler()
    console.setLevel(logging.INFO)
    
    logger.addHandler(handler)
    logger.addHandler(console)
    
    logger.info("Start print log")
    logger.debug("Do something")
    logger.warning("Something maybe fail.")
    logger.info("Finish")
    复制代码
    复制代码

    可以在log.txt文件和控制台中看到,

    2016-10-09 19:20:46,553 - __main__ - INFO - Start print log
    2016-10-09 19:20:46,553 - __main__ - WARNING - Something maybe fail.
    2016-10-09 19:20:46,553 - __main__ - INFO - Finish

    可以发现,logging有一个日志处理的主对象,其他处理方式都是通过addHandler添加进去,logging中包含的handler主要有如下几种,

    handler名称:位置;作用
    
    StreamHandler:logging.StreamHandler;日志输出到流,可以是sys.stderr,sys.stdout或者文件
    FileHandler:logging.FileHandler;日志输出到文件
    BaseRotatingHandler:logging.handlers.BaseRotatingHandler;基本的日志回滚方式
    RotatingHandler:logging.handlers.RotatingHandler;日志回滚方式,支持日志文件最大数量和日志文件回滚
    TimeRotatingHandler:logging.handlers.TimeRotatingHandler;日志回滚方式,在一定时间区域内回滚日志文件
    SocketHandler:logging.handlers.SocketHandler;远程输出日志到TCP/IP sockets
    DatagramHandler:logging.handlers.DatagramHandler;远程输出日志到UDP sockets
    SMTPHandler:logging.handlers.SMTPHandler;远程输出日志到邮件地址
    SysLogHandler:logging.handlers.SysLogHandler;日志输出到syslog
    NTEventLogHandler:logging.handlers.NTEventLogHandler;远程输出日志到Windows NT/2000/XP的事件日志
    MemoryHandler:logging.handlers.MemoryHandler;日志输出到内存中的指定buffer
    HTTPHandler:logging.handlers.HTTPHandler;通过"GET"或者"POST"远程输出到HTTP服务器

    2.2.3 日志回滚

    使用RotatingFileHandler,可以实现日志回滚,

    复制代码
    复制代码
    import logging
    from logging.handlers import RotatingFileHandler
    logger = logging.getLogger(__name__)
    logger.setLevel(level = logging.INFO)
    #定义一个RotatingFileHandler,最多备份3个日志文件,每个日志文件最大1K
    rHandler = RotatingFileHandler("log.txt",maxBytes = 1*1024,backupCount = 3)
    rHandler.setLevel(logging.INFO)
    formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
    rHandler.setFormatter(formatter)
    
    console = logging.StreamHandler()
    console.setLevel(logging.INFO)
    console.setFormatter(formatter)
    
    logger.addHandler(rHandler)
    logger.addHandler(console)
    
    logger.info("Start print log")
    logger.debug("Do something")
    logger.warning("Something maybe fail.")
    logger.info("Finish")
    复制代码
    复制代码

    可以在工程目录中看到,备份的日志文件,

    2016/10/09  19:36               732 log.txt
    2016/10/09  19:36               967 log.txt.1
    2016/10/09  19:36               985 log.txt.2
    2016/10/09  19:36               976 log.txt.3

    2.3 设置消息的等级

    可以设置不同的日志等级,用于控制日志的输出,

    日志等级:使用范围
    
    FATAL:致命错误
    CRITICAL:特别糟糕的事情,如内存耗尽、磁盘空间为空,一般很少使用
    ERROR:发生错误时,如IO操作失败或者连接问题
    WARNING:发生很重要的事件,但是并不是错误时,如用户登录密码错误
    INFO:处理请求或者状态变化等日常事务
    DEBUG:调试过程中使用DEBUG等级,如算法中每个循环的中间状态

    2.4 捕获traceback

    Python中的traceback模块被用于跟踪异常返回信息,可以在logging中记录下traceback,

    代码,

    复制代码
    复制代码
    import logging
    logger = logging.getLogger(__name__)
    logger.setLevel(level = logging.INFO)
    handler = logging.FileHandler("log.txt")
    handler.setLevel(logging.INFO)
    formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
    handler.setFormatter(formatter)
    
    console = logging.StreamHandler()
    console.setLevel(logging.INFO)
    
    logger.addHandler(handler)
    logger.addHandler(console)
    
    logger.info("Start print log")
    logger.debug("Do something")
    logger.warning("Something maybe fail.")
    try:
        open("sklearn.txt","rb")
    except (SystemExit,KeyboardInterrupt):
        raise
    except Exception:
        logger.error("Faild to open sklearn.txt from logger.error",exc_info = True)
    
    logger.info("Finish")
    复制代码
    复制代码

    控制台和日志文件log.txt中输出,

    Start print log
    Something maybe fail.
    Faild to open sklearn.txt from logger.error
    Traceback (most recent call last):
      File "G:zhb7627CodeEclipse WorkSpacePythonTest	est.py", line 23, in <module>
        open("sklearn.txt","rb")
    IOError: [Errno 2] No such file or directory: 'sklearn.txt'
    Finish

    也可以使用logger.exception(msg,_args),它等价于logger.error(msg,exc_info = True,_args),

    logger.error("Faild to open sklearn.txt from logger.error",exc_info = True)

    替换为,

    logger.exception("Failed to open sklearn.txt from logger.exception")

    控制台和日志文件log.txt中输出,

    Start print log
    Something maybe fail.
    Failed to open sklearn.txt from logger.exception
    Traceback (most recent call last):
      File "G:zhb7627CodeEclipse WorkSpacePythonTest	est.py", line 23, in <module>
        open("sklearn.txt","rb")
    IOError: [Errno 2] No such file or directory: 'sklearn.txt'
    Finish

    2.5 多模块使用logging

    主模块mainModule.py,

    复制代码
    复制代码
    import logging
    import subModule
    logger = logging.getLogger("mainModule")
    logger.setLevel(level = logging.INFO)
    handler = logging.FileHandler("log.txt")
    handler.setLevel(logging.INFO)
    formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
    handler.setFormatter(formatter)
    
    console = logging.StreamHandler()
    console.setLevel(logging.INFO)
    console.setFormatter(formatter)
    
    logger.addHandler(handler)
    logger.addHandler(console)
    
    
    logger.info("creating an instance of subModule.subModuleClass")
    a = subModule.SubModuleClass()
    logger.info("calling subModule.subModuleClass.doSomething")
    a.doSomething()
    logger.info("done with  subModule.subModuleClass.doSomething")
    logger.info("calling subModule.some_function")
    subModule.som_function()
    logger.info("done with subModule.some_function")
    复制代码
    复制代码

    子模块subModule.py,

    复制代码
    复制代码
    import logging
    
    module_logger = logging.getLogger("mainModule.sub")
    class SubModuleClass(object):
        def __init__(self):
            self.logger = logging.getLogger("mainModule.sub.module")
            self.logger.info("creating an instance in SubModuleClass")
        def doSomething(self):
            self.logger.info("do something in SubModule")
            a = []
            a.append(1)
            self.logger.debug("list a = " + str(a))
            self.logger.info("finish something in SubModuleClass")
    
    def som_function():
        module_logger.info("call function some_function")
    复制代码
    复制代码

    执行之后,在控制和日志文件log.txt中输出,

    2016-10-09 20:25:42,276 - mainModule - INFO - creating an instance of subModule.subModuleClass
    2016-10-09 20:25:42,279 - mainModule.sub.module - INFO - creating an instance in SubModuleClass
    2016-10-09 20:25:42,279 - mainModule - INFO - calling subModule.subModuleClass.doSomething
    2016-10-09 20:25:42,279 - mainModule.sub.module - INFO - do something in SubModule
    2016-10-09 20:25:42,279 - mainModule.sub.module - INFO - finish something in SubModuleClass
    2016-10-09 20:25:42,279 - mainModule - INFO - done with  subModule.subModuleClass.doSomething
    2016-10-09 20:25:42,279 - mainModule - INFO - calling subModule.some_function
    2016-10-09 20:25:42,279 - mainModule.sub - INFO - call function some_function
    2016-10-09 20:25:42,279 - mainModule - INFO - done with subModule.some_function

    首先在主模块定义了logger'mainModule',并对它进行了配置,就可以在解释器进程里面的其他地方通过getLogger('mainModule')得到的对象都是一样的,不需要重新配置,可以直接使用。定义的该logger的子logger,都可以共享父logger的定义和配置,所谓的父子logger是通过命名来识别,任意以'mainModule'开头的logger都是它的子logger,例如'mainModule.sub'。

    实际开发一个application,首先可以通过logging配置文件编写好这个application所对应的配置,可以生成一个根logger,如'PythonAPP',然后在主函数中通过fileConfig加载logging配置,接着在application的其他地方、不同的模块中,可以使用根logger的子logger,如'PythonAPP.Core','PythonAPP.Web'来进行log,而不需要反复的定义和配置各个模块的logger。

    3 通过JSON或者YAML文件配置logging模块

    尽管可以在Python代码中配置logging,但是这样并不够灵活,最好的方法是使用一个配置文件来配置。在Python 2.7及以后的版本中,可以从字典中加载logging配置,也就意味着可以通过JSON或者YAML文件加载日志的配置。

    3.1 通过JSON文件配置

    JSON配置文件,

    {
        "version":1,
        "disable_existing_loggers":false,
        "formatters":{
            "simple":{
                "format":"%(asctime)s - %(name)s - %(levelname)s - %(message)s"
            }
        },
        "handlers":{
            "console":{
                "class":"logging.StreamHandler",
                "level":"DEBUG",
                "formatter":"simple",
                "stream":"ext://sys.stdout"
            },
            "info_file_handler":{
                "class":"logging.handlers.RotatingFileHandler",
                "level":"INFO",
                "formatter":"simple",
                "filename":"info.log",
                "maxBytes":"10485760",
                "backupCount":20,
                "encoding":"utf8"
            },
            "error_file_handler":{
                "class":"logging.handlers.RotatingFileHandler",
                "level":"ERROR",
                "formatter":"simple",
                "filename":"errors.log",
                "maxBytes":10485760,
                "backupCount":20,
                "encoding":"utf8"
            }
        },
        "loggers":{
            "my_module":{
                "level":"ERROR",
                "handlers":["info_file_handler"],
                "propagate":"no"
            }
        },
        "root":{
            "level":"INFO",
            "handlers":["console","info_file_handler","error_file_handler"]
        }
    }

    通过JSON加载配置文件,然后通过logging.dictConfig配置logging,

    复制代码
    复制代码
    import json
    import logging.config
    import os
    
    def setup_logging(default_path = "logging.json",default_level = logging.INFO,env_key = "LOG_CFG"):
        path = default_path
        value = os.getenv(env_key,None)
        if value:
            path = value
        if os.path.exists(path):
            with open(path,"r") as f:
                config = json.load(f)
                logging.config.dictConfig(config)
        else:
            logging.basicConfig(level = default_level)
    
    def func():
        logging.info("start func")
    
        logging.info("exec func")
    
        logging.info("end func")
    
    if __name__ == "__main__":
        setup_logging(default_path = "logging.json")
        func()
    复制代码
    复制代码

    3.2 通过YAML文件配置

    通过YAML文件进行配置,比JSON看起来更加简介明了,

    version: 1
    disable_existing_loggers: False
    formatters:
            simple:
                format: "%(asctime)s - %(name)s - %(levelname)s - %(message)s"
    handlers:
        console:
                class: logging.StreamHandler
                level: DEBUG
                formatter: simple
                stream: ext://sys.stdout
        info_file_handler:
                class: logging.handlers.RotatingFileHandler
                level: INFO
                formatter: simple
                filename: info.log
                maxBytes: 10485760
                backupCount: 20
                encoding: utf8
        error_file_handler:
                class: logging.handlers.RotatingFileHandler
                level: ERROR
                formatter: simple
                filename: errors.log
                maxBytes: 10485760
                backupCount: 20
                encoding: utf8
    loggers:
        my_module:
                level: ERROR
                handlers: [info_file_handler]
                propagate: no
    root:
        level: INFO
        handlers: [console,info_file_handler,error_file_handler]

    通过YAML加载配置文件,然后通过logging.dictConfig配置logging,

    复制代码
    复制代码
    import yaml
    import logging.config
    import os
    
    def setup_logging(default_path = "logging.yaml",default_level = logging.INFO,env_key = "LOG_CFG"):
        path = default_path
        value = os.getenv(env_key,None)
        if value:
            path = value
        if os.path.exists(path):
            with open(path,"r") as f:
                config = yaml.load(f)
                logging.config.dictConfig(config)
        else:
            logging.basicConfig(level = default_level)
    
    def func():
        logging.info("start func")
    
        logging.info("exec func")
    
        logging.info("end func")
    
    if __name__ == "__main__":
        setup_logging(default_path = "logging.yaml")
        func()
        
    1. logging模块有几个日志级别?

      答案
       logging模块共5个级别,它们分别是:
       DEBUG INFO WARNING ERROR CRITICAL
      
    2. 请配置logging模块,使其在屏幕和文件里同时打印以下格式的日志

      2017-10-18 15:56:26,613 - access - ERROR - account [1234] too many login attempts
      
      
      
      
    3. json、pickle、shelve三个区别是什么?

      答案
       首先,这三个模块都是序列化工具。
       1. json是所有语言的序列化工具,优点跨语言、体积小.只能序列化一些基本的数据类型。intstrlist	upledict
       pickle是python语言特有序列化工具,所有数据都能序列化。只能在python中使用,存储数据占空间大.
       shelve模块是一个简单的k,v将内存数据通过文件持久化的模块,可以持久化任何pickle可支持的python数据格式。
       2. 使用方式,json和pickle用法一样,shelve是f = shelve.open('shelve_test')
      
    4. json的作用是什么?

      答案:
       序列化是指把内存里的数据类型转变成字符串,以使其能存储到硬盘或通过网络传输到远程,因为硬盘或网络传输时只能接受bytes
      
    5. subprocess执行命令方法有几种?

      答案吧:有三种方法,他们分别是
       run()方法
       call()方法
       Popen()方法
      
    6. 为什么要设计好目录结构?

      答案:
      1.可读性高: 不熟悉这个项目的代码的人,一眼就能看懂目录结构,知道程序启动脚本是哪个,测试目录在哪儿,配置文件在哪儿等等。从而非常快速的了解这个项目。
      2.可维护性高: 定义好组织规则后,维护者就能很明确地知道,新增的哪个文件和代码应该放在什么目录之下。这个好处是,随着时间的推移,代码/配置的规模增加,项目结构不会混乱,仍然能够组织良好。
      
    7. 打印出命令行的第一个参数。例如:

      python argument.py luffy
      打印出 luffy
      
      答案:
      import sys
      print(sys.argv[1])
      
    8. 代码如下:

      '''
      Linux当前目录/usr/local/nginx/html/
      文件名:index.html
      '''
      import os
      BASE_DIR = os.path.dirname(os.path.dirname(os.path.abspath('index.html')))
      print(BASE_DIR)
      
    9. 打印的内容是什么?

      答案
      /usr/local/nginx
      
    10. os.path.dirname和os.path.abspath含义是什么?

      答案
      os.path.dirname:指定文件的目录
      os.path.abspath:指定文件的绝对路径
      
    11. 通过configparser模块完成以下功能

      文件名my.cnf

       [DEFAULT]
      
       [client]
       port = 3306
       socket = /data/mysql_3306/mysql.sock
      
       [mysqld]
       explicit_defaults_for_timestamp = true
       port = 3306
       socket = /data/mysql_3306/mysql.sock
       back_log = 80
       basedir = /usr/local/mysql
       tmpdir = /tmp
       datadir = /data/mysql_3306
       default-time-zone = '+8:00'
      
    12. 修改时区 default-time-zone = '+8:00' 为 校准的全球时间 +00:00

      答案
      import configparser
      config = configparser.ConfigParser()
      config.read('my.cnf')
      config.set('mysqld','default-time-zone','+00:00')
      config.write(open('my.cnf', "w"))
      print(config['mysqld']['default-time-zone'] )
      
    13. 删除 explicit_defaults_for_timestamp = true

      import configparser
      config = configparser.ConfigParser()
      config.read('my.cnf')
      config.remove_option('mysqld','explicit_defaults_for_timestamp')
      config.write(open('my.cnf', "w"))
      
    14. 为DEFAULT增加一条 character-set-server = utf8

      答案:
      import configparser
      config = configparser.ConfigParser()
      config.read('my.cnf')
      config.set('DEFAULT','character-set-server','utf8')
      config.write(open('my.cnf', "w"))
      
    15. 写一个6位随机验证码程序(使用random模块),要求验证码中至少包含一个数字、一个小写字母、一个大写字母.

    16. import random
      import string
      a = ''.join(random.sample(string.ascii_lowercase + string.ascii_uppercase + string.digits,6))
      print(a)
    17. 利用正则表达式提取到 luffycity.com ,内容如下

      <!DOCTYPE html>
      <html lang="en">
      <head>
      <meta charset="UTF-8">
      <title>luffycity.com</title>
      </head>
      <body>
      </body>
      </html>
      
      import re
      f = open('index.html','r',encoding='utf-8')
      data = f.read()
      print(re.findall('luffycity.com',data))
      
    18. 写一个用户登录验证程序,文件如下 1234.json

      {"expire_date": "2021-01-01", "id": 1234, "status": 0, "pay_day": 22, "password": "abc"}
    19. 文件如下 1234.json
      {"expire_date": "2021-01-01", "id": 1234, "status": 0, "pay_day": 22, "password": "abc"}
       
      用户名为json文件名,密码为 password。
      判断是否过期,与expire_date进行对比。
      登陆成功后,打印“登陆成功”,三次登陆失败,status值改为1,并且锁定账号。
      
      import json,time,datetime
      username = '1234.json'
      #首次登入将数据写入文件
      # data = {"expire_date": "2020-01-01", "id": 1234, "status": 0, "pay_day": 22, "password": "abc"}
      # with open('1234.json','r+',encoding='utf-8') as f:
      #     file = json.dump(data,f)
      with open('1234.json', 'r+', encoding='utf-8') as f2:
          file2 = json.load(f2)
      
      print('请登录用户名、密码进行验证:')
      
      count = 3
      while count > 0:
          user_name = input('name:>').strip()
          pass_word = input('password:>').strip()
          if file2['status'] == 1:
              print('该用户已锁定')
              exit()
          else:
              time_now = time.strftime('%Y-%m-%d')
              d1 = datetime.datetime.strptime(file2['expire_date'], '%Y-%m-%d')
              d2 = datetime.datetime.strptime(time_now, '%Y-%m-%d')
              if d1 > d2:
                  if user_name == username:
                      if pass_word == file2['password']:
                          print('登录成功')
                          exit()
                      else:
                          count -= 1
                          print(f"您还有{count}次机会输入")
                          if count == 0:
                              file2['status'] = 1
                              with open('1234.json', 'w', encoding='utf-8') as f3:
                                  json.dump(file2,f3)
                                  break
      
                  else:
                      print('用户名不存在:')
                      continue
      
              else:
                  print('已过期')
                  break
      复制代码
    20. 用户名为json文件名,密码为 password。

    21. 判断是否过期,与expire_date进行对比。
    22. 登陆成功后,打印“登陆成功”,三次登陆失败,status值改为1,并且锁定账号。

    23. 把第12题三次验证的密码进行hashlib加密处理。即:json文件保存为md5的值,然后用md5的值进行验证。

    24. 最近luffy买了个tesla,通过转账的形式,并且支付了5%的手续费,tesla价格为75万。文件为json,请用程序实现该转账行为。 需求如下:

    25. 目录结构为

      .
      ├── account
      │ ├── luffy.json
      │ └── tesla.json
      └── bin
      └── start.py
      

    当执行start.py时,出现交互窗口

      ------- Luffy Bank ---------
      1. 账户信息
      2. 转账
    
    • 选择1 账户信息 显示luffy的当前账户余额。
    • 选择2 转账 直接扣掉75万和利息费用并且tesla账户增加75万

    • 对上题增加一个需求:提现。 目录结构如下

      .
      ├── account
      │ └── luffy.json
      ├── bin
      │ └── start.py
      └── core
      └── withdraw.py
      

    当执行start.py时,出现交互窗口

      ------- Luffy Bank ---------
      1. 账户信息
      2. 提现
    
    • 选择1 账户信息 显示luffy的当前账户余额和信用额度。
    • 选择2 提现 提现金额应小于等于信用额度,利息为5%,提现金额为用户自定义。

    • 尝试把上一章的验证用户登陆的装饰器添加到提现和转账的功能上。

    • 对第15题的用户转账、登录、提现操作均通过logging模块记录日志,日志文件位置如下

      .
      ├── account
      │ └── luffy.json
      ├── bin
      │ └── start.py
      └── core
      | └── withdraw.py
      └── logs
      └── bank.log
  • 相关阅读:
    es的多种term查询
    es的批量导入
    可重入锁
    常见的字段类型
    es中的分词
    搜索的简单使用
    application.properties中的list配置
    mysql中的concat的几个函数使用
    文档的增删改查
    Mxnet学习笔记(3)--自定义Op
  • 原文地址:https://www.cnblogs.com/anzhangjun/p/9689968.html
Copyright © 2020-2023  润新知