防止python脚本使用所有ram

问题描述

我使用 jupyter notebook 来执行 pyton 脚本。该脚本调用来自 mlxtend 框架的 association_rules 函数调用这个函数,ram 会从原来的 500 MB 爆炸到超过 32 GB。但这不是问题。问题是,如果我在 Windows 10 PC 上本地执行脚本,ram 会达到最大值,但一切仍在运行。当我在 unix 服务器(Xfce)上做同样的事情时,服务器崩溃了。我可以做些什么来防止服务器崩溃并保证脚本继续运行?

更新: 我基本上错过了 Windows 一直在交换内存的事实,唯一的区别是 Windows 不会崩溃。我很确定这将通过修复交换配置在 linux 上解决。所以基本上这个问题已经过时了。

更新: 我做了一些错误的假设。 Windows PC 已经在交换,交换分区也耗尽了内存。因此,在所有机器上都出现了相同的问题,并且所有机器都崩溃了。最后是数据预处理上的一个错误。很抱歉给您带来不便,请将此问题视为不再相关。

解决方法

使用 nice 命令运行脚本以分配优先级。

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...