• dd命令的conv=fsync,oflag=sync/dsync


    conv的参数有

    1.sync

    Pad every input block to size of 'ibs' with trailing zero bytes. When used with 'block' or 'unblock', pad with spaces instead of zero bytes.

    2.fdatasync

    Synchronize output data just before finishing. This forces a physical write of output data.

    3.fsync

    Synchronize output data and metadata just before finishing.This forces a physical write of output data and metadata.

    flag的参数有

    flag分为oflag和iflag

    1.direct

    2.dsync

    Use synchronized I/O for data. For the output file, this forces a physical write of output data on each write. For the input file, this flag can matter when reading from a remote file that has been written to synchronously by some other process. Metadata (e.g., last-access and last-modified time) is not necessarily synchronized.

    3.sync

    Use synchronized I/O for both data and metadata.

     

    dsync跟sync比较好理解,前者是只同步写数据,sync同时写数据和元数据

    但是感觉dsync与 -fsync怎么感觉有些一样? 网上的说法是  dd if=/dev/zero of=test bs=64k count=4k oflag=dsync 这个可以当成是模拟数据库插入操作,所以很慢,但还是没太明白。

    后来自己认真的抠了这英文用词, conv=fsync  Synchronize output data and metadata just before finishing 意思也就是在dd命令结束前同步data和metadata,那就是不是每一次写都同步一次咯,也就是如果我们在dd命令中写了100次,他可能是等到最后的时候才把他们同步到磁盘。而oflag=dsync是说Use synchronized
    I/O for data. For the output file, this forces a physical write of output data on each write,注意这里边用词  a physical write of output data on each write,那就是他是每一次写都得等到这一次写写到了磁盘才进行下一个写,也就是如果我们使用dd写100次,他每次写都是写到磁盘后才进行下一次写的。所以这样当然要比conv=fsync慢一些吧。那么自己感觉如果只是写一次的话,两者应该是差别不大的,后来做了下小实验,证实确实是这样的。

    在第一个图中,我们只写1块,然后使用oflag=sync与conv=fsync 测出来一个是32.1kb/s 一个是37.8kb/s 差别不大。但是下一个我写1000个,conv=fsync就明显的比oflag=dsync/sync快很多了,所以觉得上面自己扣的英文的理解应该是正确的。

    所以在用dd做读或者写的时候,应该要注意自己的使用场景,如果需要将数据写入磁盘的话

    dd if=/dev/zero of=test bs=64k count=16k  是不准确的,

    而 dd if=/dev/zero of=test bs=64k count=16k conv=fsync 比较准备,他在dd结束前会写到磁盘,

    而dd if=/dev/zero of=test bs=64k count=4k oflag=dsync或者sync 是真正的每写一次就写一次磁盘,所以其实可以听到磁盘啪啪啪的响的。

    dd如何绕开cache

    如果要规避掉文件系统cache,直接读写,不使用buffer cache,需做这样的设置
    iflag=direct,nonblock
    oflag=direct,nonblock
    iflag=cio
    oflag=cio
    direct 模式就是把写入请求直接封装成io 指令发到磁盘
    非direct 模式,就把数据写入系统缓存,然后就认为io 成功,并由操作系统决定缓存中的数据什么时候被写入磁盘

    $ dd if=/dev/zero of=test bs=64k count=4k oflag=dsync
    记录了4096+0 的读入
    记录了4096+0 的写出
    268435456字节(268 MB)已复制,48.6814 秒,5.5 MB/秒
    $ dd if=/dev/zero of=test bs=8k count=256k conv=fdatasync
    记录了262144+0 的读入
    记录了262144+0 的写出
    2147483648字节(2.1 GB)已复制,41.277 秒,52.0 MB/秒

    我们会发现第一行命令执行完,仅生成了 268 MB 的数据,用时却长达 48+ 秒。 
    而第二行命令执行完,虽然生成了 2.1GB 的数据,比第一行命令生成的数据大的多,但是用时却只有 41+ 秒,反而用时少。 
    为什么呢? 

    请注意下 oflag=dsync 参数,这个参数表明每当需要写数据时都会真正到写到磁盘上,等写到磁盘上之后,才会继续开始下一次数据写入。第一行命令要求反复写 4k 次数据,也就是说,会真正写磁盘 4k 次,用时长是理所当然的。 

    而第二行命令,虽然总共要写 2.1 GB 的数据,但是由于使用的是 conv=fdatasync 参数,也就是说,当 dd 命令结束前,一次性把所有的数据写到磁盘上,因此写入速度非常快。 

    我们再做一个测试,还是使用上面两个命令,参数相同,不同的仅是 count 参数设置为 1,bs 设置为 256 MB。那么根据之前的说明,我们可以推测,两次测试的结果应该是相近的。 

    $ dd if=/dev/zero of=test bs=256MB count=1 oflag=dsync
    记录了1+0 的读入
    记录了1+0 的写出
    256000000字节(256 MB)已复制,3.85186 秒,66.5 MB/秒
    $ dd if=/dev/zero of=test bs=256MB count=1 conv=fdatasync
    记录了1+0 的读入
    记录了1+0 的写出
    256000000字节(256 MB)已复制,4.23802 秒,60.4 MB/秒
  • 相关阅读:
    【Zookeeper】分布式服务框架 Zookeeper -- 管理分布式环境中的数据
    【Consul】 分布式环境中的服务注册和发现利器
    springboot集成springsession利用redis来实现session共享
    OpenResty初涉
    java面试之闭包(closure)
    集合框架学习之Guava Collection
    本地缓存
    VLFeat在matlab和vs中安装
    HashCode与Equals回顾
    集合工具类CollectionUtils、ListUtils、SetUtils、MapUtils的使用
  • 原文地址:https://www.cnblogs.com/tcicy/p/8468520.html
Copyright © 2020-2023  润新知