转自:http://sesame.iteye.com/blog/425678
引之:
在一个工作中的实践项目中,项目是一个部署到 linux下的中间件项目,当收到一个 Client登录的时候,需要为这个 Client打开四个文件,当进行 多用户的大压力测试的时候,程序就出问题了: too many opened files。 网上一查,发现有人也碰到过类似的 socket/File: Can’t open so many files问题。 在此总结一下这个问题,希望对后来之人有点帮助。
解决之法:
1, ulimit -a 查看当前用户的文件句柄限制
open files (-n) 65535这个就是限制数量。 (65535是我已经修改后的值了,没修改前是1024)
2,修改 /etc/security/limits.conf 增加下面的代码:
- 你的用户名 soft nofile 65535
- 你的用户名 hard nofile 65535
我们添加了有 soft, hard两种:硬限制是实际的限制,而软限制,是 warnning限制,只会做出 warning。修改时,改成一样就可以了。
3, 重启 shell即可。 (有些系统可能需要重启系统 , red hat 的肯定不用的)
4, ulimit -a 查看设置是否成功。
原理分析:
Linux是有文件句柄限制的,而且默认不是很高,一般都是 1024,应用程序很容易就达到这个数量,所以也就有了这篇文章。 ulimi是对单一程序的限制 ,而不是单个用户。
查看系统总限制 命令:
- cat /proc/sys/fs/file-max
查看整个系统目前使用的文件句柄数量命令:
- cat /proc/sys/fs/file-nr
辅助命令:
查找文件句柄问题的时候,还有一个很实用的程序 lsof,可以很方便看到某个进程开了哪些句柄 :
- lsof -p pid
某个进程开了几个句柄 :
- lsof -p pid |wc -l
也可以看到某个目录 /文件被什么进程占用了,显示已打开该目录或文件的所有进程信息 :
- lsof path/filename