• md5命令


    AIX 系统md5命令之csum
    #csum filename (默认使用md5算法)
    #csum -h SHA1 filename (使用sha1算法)
    Linux系统命令之md5sum

    1. 背景

    在网络传输、设备之间转存、复制大文件等时,可能会出现传输前后数据不一致的情况。这种情况在网络这种相对更不稳定的环境中,容易出现。那么校验文件的完整性,也是势在必行的。

    md5sum命令用于生成和校验文件的md5值。它会逐位对文件的内容进行校验。是文件的内容,与文件名无关,也就是文件内容相同,其md5值相同。md5值是一个128位的二进制数据,转换成16进制则是32(128/4)位的进制值。

    md5校验,有很小的概率不同的文件生成的md5可能相同。比md5更安全的校验算法还有SHA*系列的。

    在网络传输时,我们校验源文件获得其md5sum,传输完毕后,校验其目标文件,并对比如果源文件和目标文件md5 一致的话,则表示文件传输无异常。否则说明文件在传输过程中未正确传输。


    2. 重要的选项

    -b 以二进制模式读入文件内容
    -t 以文本模式读入文件内容
    -c 根据已生成的md5值,对现存文件进行校验
    --status 校验完成后,不生成错误或正确的提示信息,可以通过命令的返回值来判断。
    3. 使用举例

    生成文件md5值
    md5sum file
    1: [root@master lianxi]# md5sum data
    2: 0a6de444981b68d6a049053296491e49 data
    1: [root@master lianxi]# md5sum *
    2: 0a6de444981b68d6a049053296491e49 data
    3: 13df384c47dd2638fd923f60c40224c6 data2
    md5sum校验的是文件内容,与文件名无关

    以文本模式或二进制模式读入文件并对其进行校验
    -b 以二进制模式读入内容
    -t 以文本模式读入文件内容进行校验
    虽然是不同的读入模式,但是在进行求md5的时候,是一样的,因为是逐位校验的。
    如下文本文件,无论通过哪种模式读取md5都一致。
    4.-c参数的应用
    [root@localhost ~]# touch test.md5
    [root@localhost ~]# md5sum anaconda-ks.cfg >>test.md5
    [root@localhost ~]# md5sum initial-setup-ks.cfg >>test.md5
    [root@localhost ~]# md5sum adminset-0.26.zip >>test.md5
    [root@localhost ~]# md5sum -c test.md5
    anaconda-ks.cfg: 确定
    initial-setup-ks.cfg: 确定
    adminset-0.26.zip: 确定
    [root@localhost ~]# ls -lrt
    总用量 40128
    -rw-r--r--. 1 root root 41073184 6月 30 14:53 adminset-0.26.zip
    -rw-------. 1 root root 1588 6月 30 18:34 anaconda-ks.cfg
    -rw-r--r--. 1 root root 1636 6月 30 18:58 initial-setup-ks.cfg
    drwxr-xr-x. 19 root root 4096 6月 30 22:48 adminset-0.26
    -rw-r--r--. 1 root root 157 7月 24 16:55 test.md5
    [root@localhost ~]#

  • 相关阅读:
    .net webapi项目跨域问题及解决方案
    Ad Hoc Distributed Queries组件
    未启用当前数据库的 SQL Server Service Broker,因此查询通知不受支持。如果希望使用通知,请为此数据库启用 Service Broker。]
    flume与Mosquitto的集成
    分享一下spark streaming与flume集成的scala代码。
    java.lang.NoClassDefFoundError: org/apache/avro/ipc/Responder
    ERROR Shell: Failed to locate the winutils binary in the hadoop binary path
    cdh环境下,spark streaming与flume的集成问题总结
    关于CDH中开发Spark
    重新编译安装gcc-4.1.2(gcc版本降级)之TFS安装
  • 原文地址:https://www.cnblogs.com/jinxf/p/9361267.html
Copyright © 2020-2023  润新知