nginx

关注公众号 jb51net

关闭
首页 > 网站技巧 > 服务器 > nginx > Nginx日志统计分析常用命令

Nginx日志统计分析的常用命令总结

作者:Jeff

这篇文章主要给大家总结了关于Nginx日志统计分析的一些常用命令,其中包括IP相关统计、页面访问统计、性能分析、蜘蛛抓取统计、TCP连接统计等相关命令的总结,相信对大家具有一定的参考学习价值,需要的朋友们下面来一起看看吧。

本文主要给大家总结了关于Nginx日志统计分析的一些常用命令,分享出来供大家参考学习,下面来一起看看详细的介绍:

一、IP相关统计

统计IP访问量

awk '{print $1}' access.log | sort -n | uniq | wc -l

查看某一时间段的IP访问量(4-5点)

grep "07/Apr/2017:0[4-5]" access.log | awk '{print $1}' | sort | uniq -c| sort -nr | wc -l

查看访问最频繁的前100个IP

awk '{print $1}' access.log | sort -n |uniq -c | sort -rn | head -n 100

查看访问100次以上的IP

awk '{print $1}' access.log | sort -n |uniq -c |awk '{if($1 >100) print $0}'|sort -rn

查询某个IP的详细访问情况,按访问频率排序

grep '104.217.108.66' access.log |awk '{print $7}'|sort |uniq -c |sort -rn |head -n 100

二、页面访问统计

查看访问最频的页面(TOP100)

awk '{print $7}' access.log | sort |uniq -c | sort -rn | head -n 100

查看访问最频的页面([排除php页面】(TOP100)

grep -v ".php" access.log | awk '{print $7}' | sort |uniq -c | sort -rn | head -n 100

查看页面访问次数超过100次的页面

cat access.log | cut -d ' ' -f 7 | sort |uniq -c | awk '{if ($1 > 100) print $0}' | less

查看最近1000条记录,访问量最高的页面

tail -1000 access.log |awk '{print $7}'|sort|uniq -c|sort -nr|less

每秒请求量统计

统计每秒的请求数,top100的时间点(精确到秒)

awk '{print $4}' access.log |cut -c 14-21|sort|uniq -c|sort -nr|head -n 100

每分钟请求量统计

统计每分钟的请求数,top100的时间点(精确到分钟)

awk '{print $4}' access.log |cut -c 14-18|sort|uniq -c|sort -nr|head -n 100

每小时请求量统计

统计每小时的请求数,top100的时间点(精确到小时)

awk '{print $4}' access.log |cut -c 14-15|sort|uniq -c|sort -nr|head -n 100

三、性能分析

在nginx log中最后一个字段加入$request_time

列出传输时间超过3秒的页面,显示前20条

cat access.log|awk '($NF > 3){print $7}'|sort -n|uniq -c|sort -nr|head -20

列出php页面请求时间超过3秒的页面,并统计其出现的次数,显示前100条

cat access.log|awk '($NF > 1 && $7~/\.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100

四、蜘蛛抓取统计

统计蜘蛛抓取次数

grep 'Baiduspider' access.log |wc -l

统计蜘蛛抓取404的次数

grep 'Baiduspider' access.log |grep '404' | wc -l

五、TCP连接统计

查看当前TCP连接数

netstat -tan | grep "ESTABLISHED" | grep ":80" | wc -l

用tcpdump嗅探80端口的访问看看谁最高

tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr

六、实例脚本

获取前一分钟nginx访问日志条数

#!/bin/bash
 
export LANG=C
export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin
TIME=$(date -d "1 minute ago" +"%d/%h/%Y:%H:%M")
 
grep "$TIME" /var/log/nginx/access.log | wc -l

获取前一分钟nginx错误日志条数

#!/bin/bash
 
export LANG=C
export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin
TIME=$(date -d "1 minute ago" +"%Y-%m-%d %H:%M")
 
grep "$TIME" /var/log/nginx/error.log | wc -l

常用操作命令

根据访问ip统计UV

awk '{print $1}'  access.log|sort | uniq -c |wc -l

根据访问url统计PV量

awk '{print $7}' access.log | wc -l

查询访问最频繁的URL

awk '{print $7}' access.log|sort | uniq -c |sort -n -k 1 -r|more

查询访问最频繁的IP

awk '{print $1}' access.log|sort | uniq -c |sort -n -k 1 -r|more

查询传输时间超过3秒的页面

cat access.log |awk '($NF > 3){print $7}'|sort -n|uniq -c|sort -nr|head -20

统计某路由平均响应时间

grep "/" access.log | awk '{print  $NF}' | grep -P '\d{3}?$' | awk '{sum += $0;}END {if(sum==0)print 0;else print sum/NR}'

获取每分钟的请求数量,输出到文件

cat access.log  | awk '{print substr($4,14,5)}' | uniq -c | awk '{print $2","$1}' > access.txt 

日志截取

# 从总日志文件中截取昨天一整天的数据出来,并覆盖到新文件中:
cat  access.log | awk '$4 >="[14/Mar/2023:00:00:00" && $4 <="[14/Mar/2023:23:59:59"'  > access.2023051010.log

将某一时间段的日志输出到文件中

# 打印一天的日志
cat access.log | egrep "2023-05-04" > test.log     
# 打印一小时的日志cat access.log | egrep "04/Jun/2023:10" > test.log       
#打印任意时间段的日志
sed -n '/04\/Jun\/2023:10/,/04\/Jun\/2023:12/p' access.log > test.log  

备注

sort 排序
    sort 默认是升序,sort -r 降序
    sort -u 去除重复行
uniq 去重
     -i 忽略大小写字符
     -c 进行计数
     -u 只显示唯一的行
cut   从文件文件中截取
     -d 后接分割字符
     -f 依据-d的分隔符将信息分割成数段,-f 取出第几段
     -c 以字符的单位取出固定字符区间
wc  统计文件里面有多少单词,多少行,多少字符
    -l  :仅列出行
    -w  :仅列出多少字(英文单字)
    -m  :多少字符

最后提供一个综合有用的脚本

#!/bin/bash
#此脚本用于统计nginx日志当前时间n分钟之内不同接口的访问量统计
LOG=/mnt/data/nginx-1.20.1/logs/access.log
TMP=/tmp/url.tmp
URLSTATS=mnt/data/nginx-1.20.1/logs/urlstats.log
#删除临时统计文件
[ -f $TMP ] && rm -fr $TMP

for i in `seq 15`
do
   d=`date +%d/%h/%Y:%H:%M  -d "$i minutes ago"`
   #将每个时间段的URL进行统计并追加到临时文件
   awk -v b="$d" '{if ($4 ~ b)a[$7]++}END{for(i in a)printf("%-42s %-d\n", i,a[i])}' $LOG >> $TMP
done

#将汇总到临时文件的URL统计进行汇总
if [ -s $TMP ];then
   awk '{a[$1]+=$2;}END{for(i in a)printf("%-42s %-d\n", i,a[i])}' $TMP | sort -nr -k2 > $URLSTATS
else
   echo "没有统计到相关数据"
fi

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对脚本之家的支持。

您可能感兴趣的文章:
阅读全文