问题描述
我需要能够处理大文件分段上传(总计20GB +,每个文件2GB),并且我在t3.large实例(8GB内存)的Amazon Elastic Beanstalk上运行我的node.js服务器。 / p>
当上传类似于前面提到的大小的文件时,服务器会在开始处理请求后(崩溃完成后)使服务器崩溃,我敢肯定这是因为服务器的RAM和交换用完了。
据我所知,这不应该发生,我看不到所有文件的内容都立即出现在内存中的原因,应该使用较小的缓冲区来处理数据传输/读取,所以我很难解决这个问题。
下面是我的node.js代码的一些相关部分:
__get__
s3Service.runPipeline迭代文件数组,并将其上传到Amazon s3,一次读取小于2GB的文件并在单个请求中上传,将更大的文件以10MB的块上传。我认为此功能不会引起任何问题,在我尝试将文件上传到s3之前,文件似乎已加载到内存中。
感谢您的帮助。
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)