日志文件分析是Linux系统管理和故障排查的重要技能。以下是几种有效的日志数据列分析方法:
awk '{print $1, $3}' logfile
(打印第1和第3列)awk '$3 > 500 {print $0}' logfile
(第3列值大于500的行)awk '{sum+=$3} END {print sum}' logfile
(计算第3列总和)cut -d" " -f1,3 logfile
(以空格分隔,提取第1和第3列)cut -d":" -f1 /etc/passwd
(以冒号分隔)grep "error" logfile
grep -A2 -B2 "error" logfile
sed 's/old/new/3' logfile
(替换每行第3个匹配项)sed 's/[^ ]* //3' logfile
(删除第3列)column -t logfile
(自动对齐列)cut -d" " -f1 logfile | sort | uniq -c | sort -nr
(统计第1列出现频率)logwatch --detail high
logcheck
journalctl _PID=1234
journalctl -o json | jq '.__REALTIME_TIMESTAMP, .MESSAGE'
in2csv logfile > log.csv
csvstat log.csv
import pandas as pd
df = pd.read_csv('logfile', sep='\s+', header=None)
print(df.describe())
head -n 5 logfile
grep "error" logfile | awk '{print $3}' | sort | uniq -c
less
或tail -f
实时查看掌握这些工具和技术,您将能够高效地从Linux日志文件中提取有价值的信息。