问题描述
|
假设我在Amazon
S3
中存储了一个huge0 huge文件(例如500 [MB])。
在小型EC2
实例上运行的python
脚本可以直接访问和修改SQLite
文件吗?还是我必须先将文件复制到EC2
实例,然后在其中进行更改,然后再复制到S3
?
I / O是否有效?
这是我想要做的。如我所写,我在S3
中有一个500 [MB]SQLite
文件。我想开始说“ 9”,每个将读取文件的一个子集并进行一些处理(每个实例将处理500 [MB]“ 0”文件的一个不同子集)。然后,一旦处理完成,每个实例将仅更新它处理的数据的子集(如所解释的,进程之间不会有数据重叠)。
例如,假设SQLite
文件有1M行:
instance 1
将处理(并更新)rows13ѭ行
instance 2
将处理(并更新)rows15ѭ行
.........................
instance 10
将处理(并更新)rows17ѭ行
有可能吗?听起来还可以吗?任何建议/想法都欢迎。
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)