hadoop fs -du / | awk '{ sum=$1 ;dir2=$3 ; hum[1024**3]="Gb";hum[1024**2]="Mb";hum[1024]="Kb"; for (x=1024**3; x>=1024; x/=1024){ if (sum>=x) { printf "%.2f %s %s ",sum/x,hum[x],dir2;break } }}'|grep Gb|sort -k1nr
hadoop fs -du / /user/hive/warehouse/dj_tmp.db | tail -n +2 | sort -nr | awk '{dir=$3;size=$1/1024;if(size<1024){printf("%10.3f KB %s ",size,dir);}else{dir=$3;size=size/1024;if(size<1024){printf(" 33[36m%10.3f MB %s 33[0m",size,dir);}else{dir=$3;size=size/1024;if(size<1024){printf(" 33[35m%10.3f GB %s 33[0m",size,dir);}else{dir=$3;size=size/1024;printf(" 33[31m%10.3f TB %s 33[0m",size,dir);}}}}'