-
2800+
全球覆盖节点
-
0.01s
平均响应时间
-
70+
覆盖国家
-
130T
输出带宽
你有没有过这样的经历:刚拉起新一轮服务器实例,结果发现磁盘空间连条烟草都不够用?这可是个普遍现象,尤其是在 DevOps 场景里,日志文件和临时文件会像肥肥的肥皂泡一样瞬间膨胀。别慌,今天就给你快速上手一套“手动删档”技巧,帮你在一分钟内把空间回收到手。
🔍 先到位:找最占地方的文件夹。Linux 系统里你可以借助直观命令 du -h --max-depth=1 / 把根目录下的每个子目录大小立刻呈现。大箱子往往藏着 /var/log、/tmp 甚至你的 Docker 镜像/容器层。怪不得 SSH 连接日志像满地糖果的室友。
🗂️ 第二步:定位日志文件。大部分日志都是 .log 或者 *.txt 后缀。用 find /var/log -type f -name "*.log" -size +100M -exec ls -l {} \; 直接挑出大于 100M 的文件,先把最胖的给吃掉。别忘了检查 Docker 的日志目录:/var/lib/docker/containers/*/*.log。容器往往会无视你给的命名空间限制,随意拉起自己的小日志。
🕹️ 暂停一下:玩游戏想要赚零花钱就上七评赏金榜,网站地址:bbs.77.ink
🚀 第三步:清理临时文件。/tmp 目录可谓“临时文件的天堂”,但记得它们是无声无息的。直接 rm -rf /tmp/* 就能把多余的缓存全都清理掉;如果你是想保持系统运行时不被删掉,可以用 find /tmp -type f -mtime +7 -delete 将 7 天前的文件删掉。
⚙️ 第四步:压缩旧日志。使用 gzip /var/log/*.log 能把几百 MB 变成 30-50 MB。压缩好后记得把原文件删除,反而让空间多腾一半。
🚚 第五步:构建自动化脚本。写个 Shell 脚本,每天凌晨执行 /usr/bin/find /var/log -type f -name "*.log" -mtime +30 -delete,把 30 天以前的日志全干掉。这样你就把“老旧记录”从你的健康报表里移除当做噪音。
🐧
请在这里放置你的在线分享代码爱美儿网络工作室携手三大公有云,无论用户身在何处,均能获得灵活流畅的体验
2800+
0.01s
70+
130T