• 用python读取大文件


    使用非GUI方式运行JMeter后,一个麻烦就是看不到结果树之类的报告,如果request发生意想不到的错误自己不知道会很麻烦。于是我往往在jmx里加一些设定,让jmeter写一些记录到文件中去以方便察看


    如果sampler运行总数是几百上千万,那么这个记录文件就相当可观了,不过还好目前jmeter打开个2,3G的文件还是可以的,只需要等一会儿


    但是结果树是察看不到了(其实写到这里我想想,我并没有试过保存一个完整的jtl文件,然后在jmeter中load是什么效果,也许我应该试一试)


    解决方案是有的,保存一个jtl,jtl里存所有数据,然后用python解析


    说到这里我想想,的确从用JMeter开始,我才意识到要注意python的性能,读取一个很大的文件,生成一个很长的list,然后取平均值,50%,60%。。90%这样的值,数据增加到大量后,许多性能问题就要暴露出来了


    于是网上找来找去,找到一些办法

    对于大文件,我用with open(xx) as fp:  for l in fp:方式来读取,目前感觉良好,比用readlines()要好。。 至于量化指标,还没有

    def run_parser():
        global log_dic
        result_file = r'C:apache-jmeter-2.10extrasuseraction.csv'
        with open(result_file) as fp:
            for line in fp:
                readline(line)
    
        
    对于巨长list,我还没有试验,有空试一下

  • 相关阅读:
    如何搜索 git 提交记录
    使用Mongo进行分页
    mongodb 数据自动备份
    linux 添加环境变量
    centos7安装bbr
    centos7安装node
    [shell]输出内容到剪切板
    centos 7 已经开启 22 端口但无法连接
    一些有趣的 js 包
    机房选择
  • 原文地址:https://www.cnblogs.com/yeyong/p/3906373.html
Copyright © 2020-2023  润新知