共计 619 个字符,预计需要花费 2 分钟才能阅读完成。
最近有开发小哥咨询了一个问题,问题挺简单不过挺实用,记录一下分享给有需要的人。
问题如下:
应用服务器上产生了一个 8G 的 log 大文件,辛辛苦苦的把日志下载到本地,结果各种文本编辑器都打不开,文件太大了能把8G的日志文件按需求切割吗?
我说:能!
列举 4 种切割大日志文件的方法,分享给大家,有需要的收藏。
1、head 命令切割大日志文件
很容易理解,head 命令是用来获取文本文件的开始 n 行。
举例:
head -50000 java.log > blog.log
2、tail 命令分割 log 文件
tail 命令是用来获取文本最后行。
举例:
tail -50000 java.log > blog.log
3、sed 命令切割 log 文件
sed 命令可以从第 N 行截取到第M行。( N > 0 , M < FileLineNumber )
举例:
sed -n '1,50000p' java.log > blog.log
split 命令分割大 log 文件
每 3000 行切分生成一个心文件,–verbose 显示切分进度
举例:
split -l 3000 java.txt blog.log --verbose
每 100M 切分成一个新的文件,–verbose 显示切分进度
split -d 100m java.txt blog.log --verbose
以上内容,大家可以收藏起来,那天有需要可以快速用起来!
觉得本文有用,请转发、点赞或点击“在看”聚焦技术与人文,分享干货,共同成长更多内容请关注“数据与人”
正文完
split -b 100m java.txt blog.log –verbose