记录几条博主经常使用的日志分析命令,当然,现在博主都使用hadoop来进行分析了。不过命令还是留个记录,备用!
1.根据访问IP统计UV
awk '{print $1}' localhost_access_log.2018-01-09.txt|sort | uniq -c |wc -l
2.统计访问URL统计PV
awk '{print $7}' access.log|wc -l
awk '{print $7}' localhost_access_log.2018-01-09.txt|wc -l
3.查询访问最频繁的URL
awk '{print $7}' localhost_access_log.2018-01-09.txt| uniq -c |sort -n -k 1 -r|more
4.查询访问最频繁的IP
awk '{print $1}' localhost_access_log.2018-01-09.txt|sort | uniq -c |sort -n -k 1 -r|more
5.根据时间段统计查看日志
cat access.log| sed -n '/14\/Mar\/2015:21/,/14\/Mar\/2015:22/p'|more
6.每秒访问数
cut -d ' ' -f 4 localhost_access_log.2016-05-23.txt|sort|uniq -c
7.每分访问数
cut -d : -f 2-3 localhost_access_log.2018-01-09.txt|sort|uniq -c
8查看apache的进程数
ps -aux | grep httpd | wc -l
9.分析日志查看当天的ip连接数
cat default-access_log | grep "10/Dec/2010" | awk '{print $2}' | sort | uniq -c | sort -nr
10.查看指定的ip在当天究竟访问了什么url
cat default-access_log | grep "10/Dec/2010" | grep "218.19.140.242" | awk '{print $7}' | sort | uniq -c | sort -nr
11.查看当天访问排行前10的url
cat localhost_access_log.2018-01-09.txt | grep "09/Jan/2018" | awk '{print $7}' | sort | uniq -c | sort -nr | head -n 10
12.看到指定的ip究竟干了什么
cat default-access_log | grep 218.19.140.242 | awk '{print $1"\t"$8}' | sort | uniq -c | sort -nr | less
13.查看访问次数最多的几个分钟(找到热点)
awk '{print $4}' default-access_log |cut -c 14-18|sort|uniq -c|sort -nr|head