nodejs强大的分段上传达到服务器RAM限制

问题描述

我需要能够处理大文件分段上传(总计20GB +,每个文件2GB),并且我在t3.large实例(8GB内存)的Amazon Elastic Beanstalk上运行我的node.js服务器。 / p>

上传类似于前面提到的大小的文件时,服务器会在开始处理请求后(崩溃完成后)使服务器崩溃,我敢肯定这是因为服务器的RAM和交换用完了。

据我所知,这不应该发生,我看不到所有文件内容都立即出现在内存中的原因,应该使用较小的缓冲区来处理数据传输/读取,所以我很难解决这个问题。

下面是我的node.js代码的一些相关部分:

__get__

s3Service.runPipeline迭代文件数组,并将其上传到Amazon s3,一次读取小于2GB的文件并在单个请求中上传,将更大的文件以10MB的块上传。我认为此功能不会引起任何问题,在我尝试将文件上传到s3之前,文件似乎已加载到内存中。

感谢您的帮助。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...