linux磁盘 IO 抖动主因是 IO 请求排队、调度不当或应用异常,非必为磁盘故障;需用 vmstat、mpstat、pidstat、iotop、iostat 等 工具 定位进程、IO 模式及底层配置问题。

Linux 磁盘 IO 抖动通常表现为系统响应变慢、服务延迟升高、iowai t 值持续偏高(比如 >20%),但不一定是磁盘真坏了——更可能是 IO 请求排队过长、调度策略不当、应用行为异常或存储层瓶颈。关键不是盯着 iowai t 本身,而是顺着它定位“谁在发什么 IO、发到哪里、为什么 卡住”。
iowait 高 ≠ 磁盘慢,先确认是否真被 IO 拖累
iowait 是 CPU 空闲且等待 IO 完成的时间占比,它只反映“CPU 在等”,不说明 IO 慢的根源。可能情况包括:
- CPU 空闲多、IO 请求少但单次极慢(如机械盘随机读 + 高延迟)
- CPU 忙不过来,根本没空进 iowait(此时 iowait 反而低,但 IO 已 堆积)
- IO 请求被内核 block 层或设备驱动阻塞(如 multipath 路径切换、NVMe 队列满)
建议第一步用 vmstat 1 和 mpstat -P ALL 1 对比:若 %iowait 高 + %idle 也高 → 确实是 IO 等待主导;若 %iowait 低但 %wait(RHEL8+/proc/stat 新增)或 r/b (vmstat 中 blocked tasks) 高 → 说明有大量进程处于不可中断睡眠(D 状态),需查 block I/O 栈。
定位 IO 来源:按进程 /线程 粒度抓“谁在狂刷盘”
用 pidstat -d 1 实时看每个进程的读写 KB/s、IO 等待时间(%io)和每秒 IO 次数(tps)。重点关注:
- WRITE_KB 持续 > 50MB/s 且 %io > 30% 的进程
- 频繁出现“D”状态的进程(ps aux | grep ” D “)——它们正卡在 IO 路径上
- 同一进程多个线程 IO 量差异极大,可能是单线程同步刷日志或 fsync 滥用
进一步用 iotop -oPa(需 root)查看实时线程级 IO,结合 lsof -p PID 查它打开的文件和设备,判断是普通文件、数据库WAL、容器卷还是 tmpfs-backed 文件。
分析 IO 模式:顺序?随机?大块?小块?同步还是 异步?
- r/s, w/s:IOPS 高低决定是不是高 并发 小 IO(如数据库事务)
- r_await, w_await:若 >10ms(SSD)或 >20ms(NVMe)且远高于 svctm(已弃用,但 await – svctm ≈ 排队时间),说明 IO 在队列中积压
- avgqu-sz:平均队列长度 > 1 表示有排队;>4 常见于饱和设备
- %util:接近 100% 但 await 不高 → 设备真忙满;%util 很低但 await 很高 → 可能是驱动 / 队列 / 锁问题(如 ext4 journal 锁争用、XFS log stall)
配合 blktrace + blkparse 可深入分析 IO 下发路径(bio → request → queue → device),尤其适合排查“IO 明明不多,却卡死”的场景。
检查底层路径与配置:别让软件 栈自己绊倒自己
很多 IO 抖动来自配置失当或路径异常:
- 检查 /sys/block/*/queue/scheduler:CFQ(旧版)易导致延迟抖动,SSD/NVMe 应设为 none 或 kyber;HDD 可试 bfq
- 确认 /sys/block/*/queue/nr_requests 是否过小(默认 128 常不够),高 IOPS 场景可调至 256~512
- 运行 lsblk -T 和 cat /proc/diskstats,对比 major:minor 设备号,排除 LVM thin pool 耗尽、dm-crypt 加密开销、快照链过长等问题
- 云环境务必查 cloud-init 日志 或 dmesg | grep -i “nvme|io|timeout”,常见于 EBS 吞吐突降、 阿里云 云盘 IOPS 配额超限、腾讯 云 CBS 突发 IO 耗尽后限速
不复杂但容易忽略。