出现 "Too many open files" 错误是因系统限制和连接管理不当。需提升 ulimit 限制,配置 limits.conf 和 systemd 容器参数,设置 swoole 的 max_connection 和心跳机制,并确保代码中正确关闭协程连接资源。
操作系统对单个进程能打开的文件描述符数量有限制。Swoole 作为常驻内存的高性能服务框架,在高并发场景下会创建大量连接(每个连接占用一个文件描述符),很容易突破系统默认限制。要解决这个问题,需要从系统配置和 Swoole 应用两方面入手。
1. 查看和提升系统文件描述符限制
linux 系统默认的文件描述符限制通常较低(如 1024),需手动调高。
查看当前限制:
ulimit -n
如果输出是 1024 或更低,就需要调整。
临时提高限制(重启失效):
ulimit -n 65535
永久修改系统限制:
- 编辑 /etc/security/limits.conf,添加以下内容:
* soft nofile 65535
* hard nofile 65535
swoole_user soft nofile 65535
swoole_user hard nofile 65535
将 swoole_user 替换为运行 Swoole 服务的用户。
session required pam_limits.so
修改后重新登录或重启生效。
2. 检查进程实际能使用的最大文件数
即使设置了 limits.conf,某些 systemd 服务或容器环境仍可能覆盖限制。
如果是通过 systemd 启动 Swoole 服务,需在 service 文件中显式设置:
[Service]
LimitNOFILE=65535
然后执行 systemctl daemon-reload && systemctl restart your-swoole.service
docker run --ulimit nofile=65535:65535 ...
3. Swoole 配置优化连接管理
避免连接泄漏和资源耗尽,合理配置 Swoole 参数。
- 设置合理的最大连接数:
$server->set(['max_connection' => 60000]);
这个值不能超过系统允许的最大值。
- 开启空闲连接自动关闭:
$server->set([ 'heartbeat_check_interval' => 30, 'heartbeat_idle_time' => 60 ]);
每 30 秒检查一次连接,超过 60 秒无数据则断开。
4. 检查代码是否存在连接未关闭
协程环境下,使用 defer 或 try-finally 确保连接释放:
go(function () { $redis = new Coredis; $redis->connect('127.0.0.1', 6379); defer(function () use ($redis) { $redis->close(); }); // 执行操作 });
监听 WorkerStart 事件时也要注意不要在其中创建长期不释放的资源。
基本上就这些。关键在于:系统限制要放开,Swoole 配置要合理,代码要规范释放资源。只要这三块都做到位,"Too many open files" 基本不会出现。