【ZZ】inux下进程的最大线程数、进程最大数、进程打开的文件数

linux 系统中单个进程的最大线程数有其最大的限制 PTHREAD_THREADS_MAX

这个限制能够在 /usr/include/bits/local_lim.h 中查看

对 linuxthreads 这个值通常是 1024,对于 nptl 则没有硬性的限制,仅仅受限于系统的资源

这个系统的资源主要就是线程的 stack 所占用的内存,用 ulimit -s 能够查看默认的线程栈大小,通常状况下,这个值是 8M

能够写一段简单的代码验证最多能够建立多少个线程

int main()
{
int i = 0;
pthread_t thread;

while (1) {
if (pthread_create(&thread, NULL, foo, NULL) != 0)
return;
i ++;
printf("i = %d\n", i);
}
}

试验显示,在 linuxthreads 上最多能够建立 381 个线程,以后就会返回 EAGAIN

在 nptl 上最多能够建立 382 个线程,以后就会返回 ENOMEM

这个值和理论彻底相符,由于 32 位 linux 下的进程用户空间是 3G 的大小,也就是 3072M,用 3072M 除以 8M 得 384,可是实际上代码段和数据段等还要占用一些空间,这个值应该向下取整到 383,再减去主线程,获得 382。

那为何 linuxthreads 上还要少一个线程呢?这可太对了,由于 linuxthreads 还须要一个管理线程

为了突破内存的限制,能够有两种方法

1) 用 ulimit -s 1024 减少默认的栈大小
2) 调用 pthread_create 的时候用 pthread_attr_getstacksize 设置一个较小的栈大小

要注意的是,即便这样的也没法突破 1024 个线程的硬限制,除非从新编译 C 库 <=此处值得讨论,我在ubuntu 7.04+3G内存上用ulimit -s 1024,则能够获得3054个线程。

=======================进程最大数=================

以下转载自这里,详细的能够参看这里。

LINUX中进程的最大理论数计算:

每一个进程的局部段描述表LDT都做为一个独立的段而存在,在全局段描述表GDT中要有一个表项指向这个段的起始地址,并说明该段的长度以及其余一些 参数。除上以外,每一个进程还有一个TSS结构(任务状态段)也是同样。因此,每一个进程都要在全局段描述表GDT中占据两个表项。那么,GDT的容量有多大 呢?段寄存器中用做GDT表下标的位段宽度是13位,因此GDT中能够有8192个描述项。除一些系统的开销(例如GDT中的第2项和第3项分别用于内核 的代码段和数据段,第4项和第5项永远用于当前进程的代码段和数据段,第1项永远是0,等等)之外,尚有8180个表项可供使用,因此理论上系统中最大的 进程数量是4090。


===============从新编译内核来修改进程打开的最大文件数和修改listen侦听队列==========

以下转载自这里。

用“ulimit -a”能看到这些限制,如:
[root@HQtest root]# ulimit -a
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
file size (blocks, -f) unlimited
max locked memory (kbytes, -l) unlimited
max memory size (kbytes, -m) unlimited
open files (-n) 1024
pipe size (512 bytes, -p) 8
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 2047
virtual memory (kbytes, -v) unlimited
用ulimit ?n 10240 修改打开的文件数目变为 10240
虽然使用ulimit ?a 能看到变为10240,不过我在作压力测试的时候,当超过1024个用户时,服务就会down机。
最后只有从新编译了内核,编译内核后一切OK!
操做方法以下:
不一样的Linux内核版本有不一样的调整方法,
在Linux内核2.2.x中能用以下命令修改:

# echo ’8192’ > /proc/sys/fs/file-max
# echo ’32768’ > /proc/sys/fs/inode-max

并将以上命令加到/etc/rc.c/rc.local文件中,以使系统每次从新启动时设置以上值。

在Linux内核2.4.x中须要修改原始码,而后从新编译内核才生效。编辑Linux内核原始码中的 include/linux/fs.h文件,
将 NR_FILE 由8192改成 65536,将NR_RESERVED_FILES 由10 改成 128。编辑fs/inode.c 文件将 MAX_INODE 由16384改成262144。

通常状况下,最大打开文件数比较合理的设置为每4M物理内存256,好比256M内存能设为16384,
而最大的使用的i节点的数目应该是最大打开文件数目的3倍到4倍。


在Linux下,咱们使用ulimit -n命令能够看到单个进程可以打开的最大文件句柄数量(socket链接也算在里面)。系统默认值1024。


对于通常的应用来讲(象Apache、系统进程)1024彻底足够使用。可是如何象squid、mysql、java等单进程处理大量请求的应用来讲就有点捉襟见肘了。若是单个进程打开的文件句柄数量超过了系统定义的值,就会提到“too many files open”的错误提示。如何知道当前进程打开了多少个文件句柄呢?下面一段小脚本能够帮你查看:lsof -n |awk '{print $2}'|sort|uniq -c |sort -nr|more  


在系统访问高峰时间以root用户执行上面的脚本,可能出现的结果以下:# lsof -n|awk '{print $2}'|sort|uniq -c |sort -nr|more    131 24204   57 24244   57 24231   56 24264


其中第一行是打开的文件句柄数量,第二行是进程号。获得进程号后,咱们能够经过ps命令获得进程的详细内容。ps -aef|grep 24204 mysql  24204 24162 99 16:15 ?    00:24:25 /usr/sbin/mysqld


哦,原来是mysql进程打开最多文件句柄数量。可是他目前只打开了131个文件句柄数量,远远底于系统默认值1024。


可是若是系统并发特别大,尤为是squid服务器,颇有可能会超过1024。这时候就必需要调整系统参数,以适应应用变化。Linux有硬性限制和软性限制。能够经过ulimit来设定这两个参数。方法以下,以root用户运行如下命令:ulimit -HSn 4096


以上命令中,H指定了硬性大小,S指定了软性大小,n表示设定单个进程最大的打开文件句柄数量。我的以为最好不要超过4096,毕竟打开的文件句柄数越多响应时间确定会越慢。设定句柄数量后,系统重启后,又会恢复默认值。若是想永久保存下来,能够修改.bash_profile文件,能够修改 /etc/profile 把上面命令加到最后。(findsun提出的办法比较合理)
java

相关文章
相关标签/搜索