• Linux命令demo


    命令实例

    1、显示两个目录中不同的文件

    #-r或--recursive  比较子目录中的文件。
    #-q或--brief  仅显示有无差异,不显示详细的信息。
    diff -r -q directory1 direcotory2
    

    2、打补丁

    #比较两个文件不同,并生产补丁
    diff -ruN log2013.log log2014.log > patch.log
    #打补丁
    patch log2013.log patch.log
    

    3、找出两个文件相同的记录

    $ sort a b |uniq -d
    #如果a文件或b文件本身就含有重复的列,这个命令就不准了
    
    $ awk 'FNR==NR{a[$0];next}($0 in a)' a b
    #NR处理一行记录,编号就会加1,同时处理两个文件会将这两个文件当成一个合并后的文件处理,既NR会一直累加下去。而FNR则是处理一行记录,编号也会加1,但是,处理到第二个文件时,编号重新计数。
    #处理a文件时,FNR是等于NR的,条件为真,执行a[$0],next表达式,意思是将每条记录存放到a数组作为下标(无元素),next是跳出。执行过程以此类推,直到处理b件时,FNR不等于NR(FNR重新计数是1,NR继续加1是7),条件为假,不执行后面a[$0],next表达式,直接执行($0 in a)表达式,这句意思是处理b文件第一条继续判断是否在a数组中,如果在则打印这条记录,以此类推。
    
    $ awk 'ARGIND==1{a[$0]=1}ARGIND==2&&a[$0]==1' a b
    $ awk 'FILENAME=="a"{a[$0]=1}FILENAME=="b"&&a[$0]==1' a b
    #说明:ARGIND内置变量,处理文件标识符,第一个文件为1,第二个文件为2。FILENAME也是内置变量,表示输入文件的名字
    

    4、找不同的记录

     $ awk 'FNR==NR{a[$0];next}!($0 in a)' a b
     $ sort a b |uniq -u
    

    5、对文件的某一列进行统计

    1)统计文件中第一列出现次数最多的10个值
    思路:对第一列进行去重,并输出出现的次数
    方法1:$ awk '{a[$1]++}END{for(i in a)print a[i],i|"sort -k1 -nr|head -n10"}' access.log
    方法2:$ awk '{print $1}' access.log |sort |uniq -c |sort -k1 -nr |head -n10
    #说明:a[$1]++ 创建数组a,以第一列作为下标,使用运算符++作为数组元素,元素初始值为0。处理一个IP时,下标是IP,元素加1,处理第二个IP时,下标是IP,元素加1,如果这个IP已经存在,则元素再加1,也就是这个IP出现了两次,元素结果是2,以此类推。因此可以实现去重,统计出现次数。
    
    扩展:统计文件中第一列出现次数大于100次的值
    $ awk '{a[$1]++}END{for(i in a){if(a[i]>100)print i,a[i]}}' access.log
    

    6、将c文件中第一列放到到d文件中的第三列

    $ awk '{getline f<"c";print $0,f}' d
    
    #替换第二列
    $ awk '{getline f<"c";gsub($2,f,$2)}1' d
    #替换第二列的two
    $ awk '{getline f<"c";gsub("two",f,$2)}1' d
    
    # awk getline用法:输出重定向需用到getline函数。getline从标准输入、管道或者当前正在处理的文件之外的其他输入文件获得输入。它负责从输入获得下一行的内容,并给NF,NR和FNR等内建变量赋值。如果得到一条记录,getline函数返回1,如果到达文件的末尾就返回0,如果出现错误,例如打开文件失败,就返回-1。
    
    #getline语法:getline var,变量var包含了特定行的内容。
    
    #awk getline从整体上来说,用法说明:
    
    #    当其左右无重定向符|或<时:getline作用于当前文件,读入当前文件的第一行给其后跟的变量var或$0(无变量),应该注意到,由于awk在处理getline之前已经读入了一行,所以getline得到的返回结果是隔行的。
    #    当其左右有重定向符|或<时:getline则作用于定向输入文件,由于该文件是刚打开,并没有被awk读入一行,只是getline读入,那么getline返回的是该文件的第一行,而不是隔行。
    

    7、删除重复行,顺序不变

    $ awk '!a[$0]++' file
    
    #先排序再去重,破坏了源文件的顺序
    $ sort file | uniq
    

    uniq

    uniq(选项)(参数)
    

    选项

    -c或——count:在每列旁边显示该行重复出现的次数;
    -d或--repeated:仅显示重复出现的行列;
    -f<栏位>或--skip-fields=<栏位>:忽略比较指定的栏位;
    -s<字符位置>或--skip-chars=<字符位置>:忽略比较指定的字符;
    -u或——unique:仅显示出一次的行列;
    -w<字符位置>或--check-chars=<字符位置>:指定要比较的字符。
    

    参数

    • 输入文件:指定要去除的重复行文件。如果不指定此项,则从标准读取数据;
    • 输出文件:指定要去除重复行后的内容要写入的输出文件。如果不指定此选项,则将内容显示到标准输出设备(显示终端)。

    实例

    删除重复行:

    uniq file.txt
    sort file.txt | uniq
    sort -u file.txt
    

    只显示单一行:

    uniq -u file.txt
    sort file.txt | uniq -u
    

    统计各行在文件中出现的次数:

    sort file.txt | uniq -c
    

    在文件中找出重复的行:

    sort file.txt | uniq -d
    

    sort命令

    命令既可以从特定的文件,也可以从stdin中获取输入。

    语法

    sort(选项)(参数)
    

    选项

    -b:忽略每行前面开始出的空格字符;
    -c:检查文件是否已经按照顺序排序;
    -d:排序时,处理英文字母、数字及空格字符外,忽略其他的字符;
    -f:排序时,将小写字母视为大写字母;
    -i:排序时,除了040至176之间的ASCII字符外,忽略其他的字符;
    -m:将几个排序号的文件进行合并;
    -M:将前面3个字母依照月份的缩写进行排序;
    -n:依照数值的大小排序;
    -o<输出文件>:将排序后的结果存入制定的文件;
    -r:以相反的顺序来排序;
    -t<分隔字符>:指定排序时所用的栏位分隔字符;
    +<起始栏位>-<结束栏位>:以指定的栏位来排序,范围由起始栏位到结束栏位的前一栏位。
    

    参数

    文件:指定待排序的文件列表。

    实例

    sort将文件/文本的每一行作为一个单位,相互比较,比较原则是从首字符向后,依次按ASCII码值进行比较,最后将他们按升序输出。

    [root@mail text]# cat sort.txt
    aaa:10:1.1
    ccc:30:3.3
    ddd:40:4.4
    bbb:20:2.2
    eee:50:5.5
    eee:50:5.5
    
    [root@mail text]# sort sort.txt
    aaa:10:1.1
    bbb:20:2.2
    ccc:30:3.3
    ddd:40:4.4
    eee:50:5.5
    eee:50:5.5
    

    忽略相同行使用-u选项或者uniq

    [root@mail text]# cat sort.txt
    aaa:10:1.1
    ccc:30:3.3
    ddd:40:4.4
    bbb:20:2.2
    eee:50:5.5
    eee:50:5.5
    
    [root@mail text]# sort -u sort.txt
    aaa:10:1.1
    bbb:20:2.2
    ccc:30:3.3
    ddd:40:4.4
    eee:50:5.5
    
    或者
    
    [root@mail text]# uniq sort.txt
    aaa:10:1.1
    ccc:30:3.3
    ddd:40:4.4
    bbb:20:2.2
    eee:50:5.5
    

    sort的-n、-r、-k、-t选项的使用:

    [root@mail text]# cat sort.txt
    AAA:BB:CC
    aaa:30:1.6
    ccc:50:3.3
    ddd:20:4.2
    bbb:10:2.5
    eee:40:5.4
    eee:60:5.1
    
    #将BB列按照数字从小到大顺序排列:
    [root@mail text]# sort -nk 2 -t: sort.txt
    AAA:BB:CC
    bbb:10:2.5
    ddd:20:4.2
    aaa:30:1.6
    eee:40:5.4
    ccc:50:3.3
    eee:60:5.1
    
    #将CC列数字从大到小顺序排列:
    [root@mail text]# sort -nrk 3 -t: sort.txt
    eee:40:5.4
    eee:60:5.1
    ddd:20:4.2
    ccc:50:3.3
    bbb:10:2.5
    aaa:30:1.6
    AAA:BB:CC
    
    # -n是按照数字大小排序,-r是以相反顺序,-k是指定需要爱排序的栏位,-t指定栏位分隔符为冒号
    

    -k选项的具体语法格式:

    -k选项的语法格式:

    FStart.CStart Modifie,FEnd.CEnd Modifier
    -------Start--------,-------End--------
     FStart.CStart 选项  ,  FEnd.CEnd 选项
    

    这个语法格式可以被其中的逗号,分为两大部分,Start部分和End部分。Start部分也由三部分组成,其中的Modifier部分就是我们之前说过的类似n和r的选项部分。我们重点说说Start部分的FStartC.StartC.Start也是可以省略的,省略的话就表示从本域的开头部分开始。FStart.CStart,其中FStart就是表示使用的域,而CStart则表示在FStart域中从第几个字符开始算“排序首字符”。同理,在End部分中,你可以设定FEnd.CEnd,如果你省略.CEnd,则表示结尾到“域尾”,即本域的最后一个字符。或者,如果你将CEnd设定为0(零),也是表示结尾到“域尾”。

    从公司英文名称的第二个字母开始进行排序:

    $ sort -t ' ' -k 1.2 facebook.txt
    baidu 100 5000
    sohu 100 4500
    google 110 5000
    guge 50 3000
    

    使用了-k 1.2,表示对第一个域的第二个字符开始到本域的最后一个字符为止的字符串进行排序。你会发现baidu因为第二个字母是a而名列榜首。sohu和 google第二个字符都是o,但sohu的h在google的o前面,所以两者分别排在第二和第三。guge只能屈居第四了。

    只针对公司英文名称的第二个字母进行排序,如果相同的按照员工工资进行降序排序:

    $ sort -t ' ' -k 1.2,1.2 -nrk 3,3 facebook.txt
    baidu 100 5000
    google 110 5000
    sohu 100 4500
    guge 50 3000
    

    由于只对第二个字母进行排序,所以我们使用了-k 1.2,1.2的表示方式,表示我们“只”对第二个字母进行排序。(如果你问“我使用-k 1.2怎么不行?”,当然不行,因为你省略了End部分,这就意味着你将对从第二个字母起到本域最后一个字符为止的字符串进行排序)。对于员工工资进行排 序,我们也使用了-k 3,3,这是最准确的表述,表示我们“只”对本域进行排序,因为如果你省略了后面的3,就变成了我们“对第3个域开始到最后一个域位置的内容进行排序” 了。

    du

    du -sh : 查看当前目录总共占的容量。而不单独列出各子项占用的容量

    du -lh --max-depth=1 : 查看当前目录下一级子文件和子目录占用的磁盘容量。

    du -ah --max-depth=1     这个是我想要的结果  a表示显示目录下所有的文件和文件夹(不含子目录),h表示以人类能看懂的方式,max-depth表示目录的深度。

    free -g # 查看内存使用量和交换区使用量

    df -h # 查看各分区使用情况

    find

    对find参数-prune的理解

    (PS:对find参数-prune的理解

    -prune就像一个判断语 句,当发现-prune前面的表达式math时,执行到-prune之后就会输出一个1结果,

    如果shell的话, 可以使用echo $?来看结果,如果-prune后面跟的是-o选项,用c语言的语法来讲的话就是1 || -print,所以明显可以看到 当-prune前面的 表达式成立的话,就不会执行-o后面的内容了,如果不成立,即0 || -print,那么将打印输出,

    另外需要注意的是-path路径不能加入 结尾的/,

    比如路径/vobs/gliethttp/signature,不能写成/vobs/gliethttp/signature/,这是硬性规定

    find /vobs/tmp/ -path /vobs/tmp/signature -a -print

    如果find .那么后面-path的必须使用相对路径./gliethttp

    除 find中.之外,其他所有查找,比如find tmp或者find /vobs等,-path都必须使用绝对路径 )

    显示除hid_uart开头的所有目录或文件,以及名为 signature的目录或文件之外的所有文件

    find . −namehiduart∗−o−namesignature -prune -o -print

    显示除当前目录./signature之外的所有文件

    find . -path ./signature -prune -o -print

    只打印当前目录下的./signature目录

    find . -path ./signature -prune -a -print

    打印除.svn下的所有.c文件

    find . -name .svn -prune -o -iname '*.c' -a -print

    或者使用-path参数

    find . -path ./.svn -prune -o -print

    ls *.js | xargs ls -al

    命令解释:

    1. 首先,ls *.js的输出为a.js b.js c.js

    2. 通过管道,将a.js b.js c.js作为xargs的输入参数。

    3. xargs命令收到输入参数后,对参数进行解析,以空格/换行作为分隔符,拆分成多个参数,这里变成a.jsb.jsc.js

    4. xargs将拆分后的参数,传递给后续的命令,作为后续命令的参数,也就是说,组成这样的命令ls -al a.js b.js c.js

    5. -print0:告诉find命令,在输出文件名之后,跟上NULL字符,而不是换行符;

    6. -0:告诉xargs,以NULL作为参数分隔符;

    find . -name '*.css' -print0 | xargs -0 -t ls -al
    

    -t参数,在执行后面的命令前,先将命令打印出来

    例子如下,将所有的.js结尾的文件,都加上.backup后缀。-I '{}'表示将后面命令行的{}替换成前面解析出来的参数。

    ls *.js | xargs -t -I '{}' mv {} {}.backup
    

    xargs结合sed替换:

    find . -name "*.txt" -print0 | xargs -0 sed -i 's/aaa/bbb/g'

    xargs结合grep:

    find . -name '*.txt' -type f -print0 |xargs -0 grep -n 'aaa'

    #“-n”输出行号

  • 相关阅读:
    二叉树
    队列和栈
    时间复杂度和空间复杂度
    二分查找法
    排序算法值归并排序
    排序算法之选择排序类
    5.7.1.3 Global 对象的属性
    5.7.1.2 eval() 方法
    5.7.1.1 单体内置对象
    5.6.3.8 fromCharCode()方法
  • 原文地址:https://www.cnblogs.com/Utah-Lee/p/10480869.html
Copyright © 2020-2023  润新知