最大堆栈大小,ulimit -s,segfault 11 – 这是如何工作的?

所以,我做:
$ulimit -s
8192

大.据了解,任何进程的堆栈段不能超过8192千字节.

现在来挑战那个..

#include <stdio.h>

void over_8k(void) {
    char buf[1024*1024*20];
}

int main(int argc,char** argv) {
    printf("Starting .. ");
    over_8k();
    printf(" finishing.\nHow did this work?\n");
    return 0;
}

编译.然.没问题.那是不对的?超过8k单独应该有一个堆栈框架,好超过20兆字节.那么让我们尝试访问这些2000万个字节:

#include <stdio.h>
#include <string.h>

void over_8k(void) {
    char buf[1024*1024*20];
    memset(buf,'A',sizeof(buf));
}

int main(int argc,char** argv) {
    printf("Starting .. ");
    over_8k();
    printf(" finishing.\nHow did this work?\n");
    return 0;
}

.. 击鼓 ..

Segmentation fault: 11

大.但这不是我期望的错误吗?内存访问无效?

为什么会提高一个segfault,并且不会早于错误?打电话到超过8k吗?这个怎么用?我想知道一切

解决方法

扩大我的评论

有两种可能性我可以想到:

编译器正在优化整个buf数组:

在MSVC中,启用优化后,整个阵列被完全优化,完全不分配.所以没有使用任何堆栈.

堆栈分配只是堆栈指针的递增/递减:

sub rsp,20971520

不会破产.这只是一个指针.当您尝试访问未映射内存时,它将只会发生故障.

相关文章

在Linux上编写运行C语言程序,经常会遇到程序崩溃、卡死等异...
git使用小结很多人可能和我一样,起初对git是一无所知的。我...
1. 操作系统环境、安装包准备 宿主机:Max OSX 10.10.5 虚拟...
因为业务系统需求,需要对web服务作nginx代理,在不断的尝试...
Linux模块机制浅析 Linux允许用户通过插入模块,实现干预内核...
一、Hadoop HA的Web页面访问 Hadoop开启HA后,会同时存在两个...