linux – 巨大的coredumps的gdb内存使用情况

当用gdb打开coredump时,gdb会尝试将完整的coredump加载到内存中吗?

我在我们的一个分期系统上找到了一个35GB大小的coredump.我们的操作说明要求使用gdb创建回溯.我担心gdb会尝试将完整的coredump加载到内存中,并通过耗尽所有可用内存来使暂存区域无法使用.

我们在RedHat EL 5/64位安装上使用gdb 7.0.1.

解决方法:

When opening a coredump with gdb, will gdb try to load the full coredump into memory?

没有.

I’m afraid gdb will try to load the full coredump into memory and render the staging area unusable by using up all available memory.

即使没有加载整个核心转储,GDB也会占用一些内存,因此您可能会对登台系统产生影响.如果您负担不起,则需要修改“操作程序”,例如:将核心移动到另一个系统并在那里进行分析.注意:如果您的可执行文件使用动态链接,则必须安排动态库在生成核心转储时和分析时完全匹配.

上一篇:c – 分段错误,没有核心转储


下一篇:如何从已停止的程序(linux)获取核心转储