linux – proc的限制和ulimit -f不匹配

我有一个问题,进程的最大文件大小不同于用户的ulimit.此过程的日志文件基本上没有超过524288

PROC:

less /proc/20238/limits

Limit                     Soft Limit           Hard Limit           Units
...
Max file size             524288               524288               bytes
...

的ulimit:

ulimit -a

...
file size               (blocks,-f) unlimited
...

据我所知,脚本中没有设置启动进程的ulimit.

我还查看了/etc/security/limit.conf,但只有nofile和nproc的条目

问:你知道还有什么可以设置文件大小限制吗?

如果有任何帮助,这里是启动过程的清理版本:

nohup java $WALLET_OPTS -DOracleName="FileSender" -DAPP=FILE_SDR -Dapp_props=$APP_PROPS -Dfile_name=${FILE_NAME}  -XX:+UseParallelGC -XX:+disableExplicitGC -XX:-EliminateLocks $APPMEM -DDEBUG_MQSERVER=TRUE -classpath $CLAsspATH com.some.path.FileSdrSrv 10 1>> $APP_LOG/filesdr.log 2>&1 &

java文件也没有设置ulimit

解决方法

应用程序可以在启动时限制资源,始终可以设置比用户配置的值更严格的资源限制.请参阅以下示例:
[centos@be0 ~]$ulimit -n
32000
[centos@be0 ~]$ulimit -n 16000
[centos@be0 ~]$ulimit -n
16000
[centos@be0 ~]$ulimit -n 32000
-bash: ulimit: open files: cannot modify limit: Operation not permitted
[centos@be0 ~]$

相关文章

在Linux上编写运行C语言程序,经常会遇到程序崩溃、卡死等异...
git使用小结很多人可能和我一样,起初对git是一无所知的。我...
1. 操作系统环境、安装包准备 宿主机:Max OSX 10.10.5 虚拟...
因为业务系统需求,需要对web服务作nginx代理,在不断的尝试...
Linux模块机制浅析 Linux允许用户通过插入模块,实现干预内核...
一、Hadoop HA的Web页面访问 Hadoop开启HA后,会同时存在两个...