使用 find 与 cron 实现日志自动切割:先通过 find 命令定位大日志文件,结合 split 按大小分割,再用 cron 定时执行任务,配合 gzip 压缩和清理策略,构建轻量级日志管理体系,适用于无 logrotate 环境。

linux系统中,日志文件会随着时间不断增长,过大的日志不仅占用磁盘空间,还会影响排查问题的效率。通过 cron 和 find 命令组合,可以实现灵活、自动化 的日志切割,无需依赖 logrotate 也能完成基础管理任务。
使用 find 查找并分割大日志文件
核心思路是利用 find 命令找出指定目录下超过一定大小或修改时间较早的日志文件,再结合 split 或其他处理方式将其切分。
例如,将 /var/log/ 下大于 100MB 的。log 文件进行分割:
find /var/log -name "*.log" -size +100M -exec split {} {}_part_ ;
这条命令会查找所有大于 100MB 的。log 文件,并用 split 按默认大小(通常是 1000 行)切分为多个片段,原文件名后加上_part_aa、_part_ab 等后缀。
如果希望按大小分割,比如每个片段 50MB:
find /var/log -name "*.log" -size +100M -exec split -b 50M {} {}_$(date +%Y%m%d)_ ;
结合 cron 实现定时切割
为了让日志切割自动化,可将上述命令写入 crontab,设定周期执行。
编辑当前用户的定时任务:
crontab -e
添加一行,表示每天凌晨 2 点执行一次日志切分:
0 2 * * *find /var/log -name "*.log" -size +100M -exec split -b 50M {} {}_$(date +%Y%m%d)_ ;> /dev/null 2>&1
注意:在 crontab 中使用 % 符号需要转义,因此写成 %Y%m%d。
切割后处理:压缩与清理
切分后的日志仍占用空间,建议进一步压缩归档或删除旧文件。
例如,在切割后对原始大文件进行 gzip 压缩,并保留 7 天:
find /var/log -name "*.log" -size +100M -exec split -b 50M {} {}_$(date +%Y%m%d)_ ;-exec gzip {} ; find /var/log -name "*.log.gz" -mtime +7 -delete
第一条命令在 split 后立即压缩原文件;第二条则定期清理 7 天前的压缩日志。
避免影响服务运行
直接操作正在被程序写入的日志文件可能导致 数据丢失 或服务异常。建议先通知应用重载日志(如nginx -s reopen),或使用 copytruncate 方式模拟安全切割。
若无法重启服务,可采用先拷贝再清空的方式:
这样保留了历史内容,又不会中断写入。
基本上就这些。通过 find 定位目标日志,配合 split 切割、gzip 压缩,再由 cron 驱动定时执行,就能构建一套轻量高效的手动日志管理体系。适用于嵌入式设备、容器环境或不想启用 logrotate 的场景。