shell分析日志常用指令合集
生活随笔
收集整理的這篇文章主要介紹了
shell分析日志常用指令合集
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
數(shù)據(jù)分析對于網(wǎng)站運(yùn)營人員是個非常重要的技能,日志分析是其中的一個。日志分析可以用專門的工具進(jìn)行分析,也可以用原生的shell腳本執(zhí)行,下面就隨ytkah看看shell分析日志常用指令有哪些吧。(log_file表示所在路徑,完整的路徑像這樣:/www/var/***.log)
1、查看當(dāng)天有多少個IP訪問:
awk '{print $1}' log_file|sort|uniq|wc -l2、查看某一個頁面被訪問的次數(shù):
grep "/index.php" log_file | wc -l3、查看每一個IP訪問了多少個頁面:
awk '{++S[$1]} END {for (a in S) print a,S[a]}' log_file4、將每個IP訪問的頁面數(shù)進(jìn)行從小到大排序:
awk '{++S[$1]} END {for (a in S) print S[a],a}' log_file | sort -n5、查看某一個IP訪問了哪些頁面:
grep ^111.111.111.111 log_file| awk '{print $1,$7}'6、去掉搜索引擎統(tǒng)計當(dāng)天的頁面:
awk '{print $12,$1}' log_file | grep ^\"Mozilla | awk '{print $2}' |sort | uniq | wc -l7、查看2018年11月21日14時這一個小時內(nèi)有多少IP訪問:
awk '{print $4,$1}' log_file | grep 21/Nov/2018:14 | awk '{print $2}'| sort | uniq | wc -l8、列出當(dāng)天訪問次數(shù)最多的IP
cut -d- -f 1 log_file |uniq -c | sort -rn | head -20原理
?????? cut-d, --delimiter=DELIMuse DELIM instead of TAB for field delimiter表示用-分割,然后-f 1 -f, --fields=LISTselect only these fields;? also print any line that contains? nodelimiter character, unless the -s option is specified表示打印第一部分,就是ipuniq 是將重復(fù)行去掉, -c表示前面前面加上數(shù)目,sort -rn 就是按照數(shù)字從大到小排序,head -20取前面20行
你可能會喜歡:shell日志分析進(jìn)階篇
轉(zhuǎn)載于:https://www.cnblogs.com/ytkah/p/10082032.html
總結(jié)
以上是生活随笔為你收集整理的shell分析日志常用指令合集的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 牛客多校第二场 G transform
- 下一篇: JSF和Facelets的lifecir