Nginx日志统计分析的常用命令总结
作者:Jeff
这篇文章主要给大家总结了关于Nginx日志统计分析的一些常用命令,其中包括IP相关统计、页面访问统计、性能分析、蜘蛛抓取统计、TCP连接统计等相关命令的总结,相信对大家具有一定的参考学习价值,需要的朋友们下面来一起看看吧。
本文主要给大家总结了关于Nginx日志统计分析的一些常用命令,分享出来供大家参考学习,下面来一起看看详细的介绍:
一、IP相关统计
统计IP访问量
awk '{print $1}' access.log | sort -n | uniq | wc -l
查看某一时间段的IP访问量(4-5点)
grep "07/Apr/2017:0[4-5]" access.log | awk '{print $1}' | sort | uniq -c| sort -nr | wc -l
查看访问最频繁的前100个IP
awk '{print $1}' access.log | sort -n |uniq -c | sort -rn | head -n 100
查看访问100次以上的IP
awk '{print $1}' access.log | sort -n |uniq -c |awk '{if($1 >100) print $0}'|sort -rn
查询某个IP的详细访问情况,按访问频率排序
grep '104.217.108.66' access.log |awk '{print $7}'|sort |uniq -c |sort -rn |head -n 100
二、页面访问统计
查看访问最频的页面(TOP100)
awk '{print $7}' access.log | sort |uniq -c | sort -rn | head -n 100
查看访问最频的页面([排除php页面】(TOP100)
grep -v ".php" access.log | awk '{print $7}' | sort |uniq -c | sort -rn | head -n 100
查看页面访问次数超过100次的页面
cat access.log | cut -d ' ' -f 7 | sort |uniq -c | awk '{if ($1 > 100) print $0}' | less
查看最近1000条记录,访问量最高的页面
tail -1000 access.log |awk '{print $7}'|sort|uniq -c|sort -nr|less
每秒请求量统计
统计每秒的请求数,top100的时间点(精确到秒)
awk '{print $4}' access.log |cut -c 14-21|sort|uniq -c|sort -nr|head -n 100
每分钟请求量统计
统计每分钟的请求数,top100的时间点(精确到分钟)
awk '{print $4}' access.log |cut -c 14-18|sort|uniq -c|sort -nr|head -n 100
每小时请求量统计
统计每小时的请求数,top100的时间点(精确到小时)
awk '{print $4}' access.log |cut -c 14-15|sort|uniq -c|sort -nr|head -n 100
三、性能分析
在nginx log中最后一个字段加入$request_time
列出传输时间超过3秒的页面,显示前20条
cat access.log|awk '($NF > 3){print $7}'|sort -n|uniq -c|sort -nr|head -20
列出php页面请求时间超过3秒的页面,并统计其出现的次数,显示前100条
cat access.log|awk '($NF > 1 && $7~/\.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100
四、蜘蛛抓取统计
统计蜘蛛抓取次数
grep 'Baiduspider' access.log |wc -l
统计蜘蛛抓取404的次数
grep 'Baiduspider' access.log |grep '404' | wc -l
五、TCP连接统计
查看当前TCP连接数
netstat -tan | grep "ESTABLISHED" | grep ":80" | wc -l
用tcpdump嗅探80端口的访问看看谁最高
tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr
六、实例脚本
获取前一分钟nginx访问日志条数
#!/bin/bash export LANG=C export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin TIME=$(date -d "1 minute ago" +"%d/%h/%Y:%H:%M") grep "$TIME" /var/log/nginx/access.log | wc -l
获取前一分钟nginx错误日志条数
#!/bin/bash export LANG=C export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin TIME=$(date -d "1 minute ago" +"%Y-%m-%d %H:%M") grep "$TIME" /var/log/nginx/error.log | wc -l
常用操作命令
根据访问ip统计UV
awk '{print $1}' access.log|sort | uniq -c |wc -l
根据访问url统计PV量
awk '{print $7}' access.log | wc -l
查询访问最频繁的URL
awk '{print $7}' access.log|sort | uniq -c |sort -n -k 1 -r|more
查询访问最频繁的IP
awk '{print $1}' access.log|sort | uniq -c |sort -n -k 1 -r|more
查询传输时间超过3秒的页面
cat access.log |awk '($NF > 3){print $7}'|sort -n|uniq -c|sort -nr|head -20
统计某路由平均响应时间
grep "/" access.log | awk '{print $NF}' | grep -P '\d{3}?$' | awk '{sum += $0;}END {if(sum==0)print 0;else print sum/NR}'
获取每分钟的请求数量,输出到文件
cat access.log | awk '{print substr($4,14,5)}' | uniq -c | awk '{print $2","$1}' > access.txt
日志截取
# 从总日志文件中截取昨天一整天的数据出来,并覆盖到新文件中: cat access.log | awk '$4 >="[14/Mar/2023:00:00:00" && $4 <="[14/Mar/2023:23:59:59"' > access.2023051010.log
将某一时间段的日志输出到文件中
# 打印一天的日志 cat access.log | egrep "2023-05-04" > test.log # 打印一小时的日志cat access.log | egrep "04/Jun/2023:10" > test.log #打印任意时间段的日志 sed -n '/04\/Jun\/2023:10/,/04\/Jun\/2023:12/p' access.log > test.log
备注
sort 排序 sort 默认是升序,sort -r 降序 sort -u 去除重复行 uniq 去重 -i 忽略大小写字符 -c 进行计数 -u 只显示唯一的行 cut 从文件文件中截取 -d 后接分割字符 -f 依据-d的分隔符将信息分割成数段,-f 取出第几段 -c 以字符的单位取出固定字符区间 wc 统计文件里面有多少单词,多少行,多少字符 -l :仅列出行 -w :仅列出多少字(英文单字) -m :多少字符
最后提供一个综合有用的脚本
#!/bin/bash #此脚本用于统计nginx日志当前时间n分钟之内不同接口的访问量统计 LOG=/mnt/data/nginx-1.20.1/logs/access.log TMP=/tmp/url.tmp URLSTATS=mnt/data/nginx-1.20.1/logs/urlstats.log #删除临时统计文件 [ -f $TMP ] && rm -fr $TMP for i in `seq 15` do d=`date +%d/%h/%Y:%H:%M -d "$i minutes ago"` #将每个时间段的URL进行统计并追加到临时文件 awk -v b="$d" '{if ($4 ~ b)a[$7]++}END{for(i in a)printf("%-42s %-d\n", i,a[i])}' $LOG >> $TMP done #将汇总到临时文件的URL统计进行汇总 if [ -s $TMP ];then awk '{a[$1]+=$2;}END{for(i in a)printf("%-42s %-d\n", i,a[i])}' $TMP | sort -nr -k2 > $URLSTATS else echo "没有统计到相关数据" fi
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对脚本之家的支持。