在linux的世界里,万物皆文件,比如我们在Linux上跑了一个java服务,
输入jps,看到他的进程ID是7980,那在/proc的目录下一定会有一个对应的目录7980,
一般是/proc/${pid}
这个文件下就有所有关于这个进程的信息。里面有个task目录,里面的每个目录对应你进程里的每一个线程
而linux里,一个进程能够操作的文件句柄数是有限制的,一般操作系统默认是1024,通过 ulimit -a可以看到
open files 的值默认是1024,所有这里就限制了我们一个进程最多操作的文件数不能超过1024,如果是一般的
应用程序,这样配置没什么问题,但是如果是高并发的程序,这样就会大大限制你的请求,因为,高并发的情况下,
进程会通过很多线程来处理请求,向我上面说的,一个请求会创建一个文件,
当你的服务器在大并发达到极限时,就会报出“too many open files”。
[root@hadoop130 task]# ulimit -a
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 3756
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited
open files (-n) 1024
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 3756
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimited
那么如何修改linux最大文件句柄数呢?其实很简单:
1、ulimit -n 2048
这命令就可以修改linux最大文件句柄数,修改以后使用ulimit -a 查看修改的状态,
[root@hadoop130 task]# ulimit -n 2048
[root@hadoop130 task]# ulimit -a
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 3756
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited
open files (-n) 2048
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 3756
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimited
2、修改linux系统参数。vi /etc/security/limits.conf 添加
* soft nofile 65536
* hard nofile 65536