uniq

uniq命令:

uniq不加参数,只对相邻的相同行内容去重。

例子如下

[root@localhost ~]# pwd

/root

[root@localhost ~]# cat oldboy.txt

10.0.0.9

10.0.0.8

10.0.0.7

10.0.0.7

10.0.0.8

10.0.0.8

10.0.0.9

[root@localhost ~]# uniq oldboy.txt

10.0.0.9

10.0.0.8

10.0.0.7

10.0.0.8

10.0.0.9

sort 命令:排序的命令

sort命令不加参数,会把重复的行相邻。

例子如下:

[root@localhost ~]# pwd

/root

[root@localhost ~]# cat oldboy.txt

10.0.0.9

10.0.0.8

10.0.0.7

10.0.0.7

10.0.0.8

10.0.0.8

10.0.0.9

[root@localhost ~]# sort oldboy.txt

10.0.0.7

10.0.0.7

10.0.0.8

10.0.0.8

10.0.0.8

10.0.0.9

对oldboy.txt文件进行去除相同的行内容:

法1:sort配合uniq去除重复的行。

[root@localhost ~]# sort oldboy.txt |uniq

10.0.0.7

10.0.0.8

10.0.0.9

法二: sort –u filename  -u去除重复的行。

[root@localhost ~]# sort -u oldboy.txt

10.0.0.7

10.0.0.8

10.0.0.9

uniq –c filename  -c统计重复的行的内容的行(次)数,即去重计数。

例子如下:

[root@localhost ~]# cat oldboy.txt

10.0.0.9

10.0.0.8

10.0.0.7

10.0.0.7

10.0.0.8

10.0.0.8

10.0.0.9

[root@localhost ~]# sort oldboy.txt |uniq -c

2 10.0.0.7

3 10.0.0.8

2 10.0.0.9

企业真实案例(这个案例非常重要):

处理以下文件内容,将域名取出并根据域名进行计数排序处理:(百度和sohu面试题)

oldboy.log

http://www.etiantian.org/index.html

http://www.etiantian.org/1.html

http://post.etiantian.org/index.html

http://mp3.etiantian.org/index.html

http://www.etiantian.org/3.html

http://post.etiantian.org/2.html

[root@localhost ~]# cat oldboy.log

http://www.etiantian.org/index.html

http://www.etiantian.org/1.html

http://post.etiantian.org/index.html

http://mp3.etiantian.org/index.html

http://www.etiantian.org/3.html

http://post.etiantian.org/2.html

[root@localhost ~]# awk -F "/" '{print $3}' oldboy.log |sort |uniq -c

1 mp3.etiantian.org

2 post.etiantian.org

www.etiantian.org

倒序排序:sort  –r  filename  -r参数倒序排序(反过来排序)。

法一:

[root@localhost ~]# awk -F "/" '{print $3}' oldboy.log |sort |uniq -c|sort -r

3 www.etiantian.org

2 post.etiantian.org

1 mp3.etiantian.org

分析:此类问题是运维工作中最常见的问题。可以演变成分析日志,查看TCP各个状态连接数,查看单IP连接数排名等等。

法二:

[root@localhost ~]# cut -d "/" -f3 oldboy.log |sort -r|uniq -c

3 www.etiantian.org

2 post.etiantian.org

1 mp3.etiantian.org

sort

sort 命令:分隔符默认是空格。

默认按照整行排序。

-u:去重(去除相同内容的行)。

-r:倒序(反过来排序),倒序经常使用。

-n:按照数字排序。

-t:指定分隔符,类似AWK的-F,例如:-t,指定分隔符,-k1就是分隔符之后的第一列排序。

-k:指定第几列。

-k参数用法1:

-k 字段1,字段2 :用逗号作为分隔符,例如:-k 1,1:表示从第一个字段开始排序,到第一个字段结束。

-k参数用法2:

例子:-k 1.1,3.3 :(用点分隔字符)表示第一个字段的第一个字符开始排序到第三个字段的第三个字符结束。

对第二列字符进行排序:

[root@localhost ~]# cat oldboy.txt

10.0.0.9 a

10.0.0.8 k

10.0.0.7 f

10.0.0.7 n

10.0.0.8 c

10.0.0.8 z

10.0.0.9 o

[root@localhost ~]# sort  -k 2 oldboy.txt

10.0.0.9 a

10.0.0.8 c

10.0.0.7 f

10.0.0.8 k

10.0.0.7 n

10.0.0.9 o

10.0.0.8 z

进行倒序排序:

[root@localhost ~]# sort -rk2 oldboy.txt

10.0.0.8 z

10.0.0.9 o

10.0.0.7 n

10.0.0.8 k

10.0.0.7 f

10.0.0.8 c

10.0.0.9 a

-k:指定第几列。

-k参数用法1:

-k 字段1,字段2 :用逗号作为分隔符,例如:-k 1,1:表示从第一个字段开始排序,到第一个字段结束。

-k参数用法2:

例子:-k 1.1,3.3 :(用点分隔字符)表示第一个字段的第一个字符开始排序到第三个字段的第三个字符结束。

-k参数用法1和用法2结合的例子(对IP地址降序排序)(日志经常用到此方法用法):

[root@saltstack-client2 ~]# cat arp.txt

192.168.3.1 00:0F:AF:81:19:DE

192.168.3.1 00:0F:AF:81:19:49

192.168.3.2 00:30:AF:81:19:EF

192.168.3.3 00:40:AF:81:19:BF

192.168.0.152 00:65:AF:81:19:AF

192.168.0.153 00:70:AF:81:19:CF

192.168.1.1 00:80:AF:81:19:59

192.168.1.2 00:45:AF:81:19:GF

192.168.2.20 00:60:AF:81:19:1F

[root@saltstack-client2 ~]# sort -t. -k3.1,3.1nr -k4.1,4.3nr arp.txt

192.168.3.3 00:40:AF:81:19:BF

192.168.3.2 00:30:AF:81:19:EF

192.168.3.1 00:0F:AF:81:19:49

192.168.3.1 00:0F:AF:81:19:DE

192.168.2.20 00:60:AF:81:19:1F

192.168.1.2 00:45:AF:81:19:GF

192.168.1.1 00:80:AF:81:19:59

192.168.0.153 00:70:AF:81:19:CF

192.168.0.152 00:65:AF:81:19:AF

注意:-t,-k一般都是在一起结合使用!sort常用的参数:-r,-n,-t,-k。

04-15 07:55