Amazon EC2和S3在使用Python / SQLite时?

问题描述

| 假设我在Amazon
S3
中存储了一个huge0 huge文件(例如500 [MB])。 在小型
EC2
实例上运行的
python
脚本可以直接访问和修改
SQLite
文件吗?还是我必须先将文件复制到
EC2
实例,然后在其中进行更改,然后再复制到
S3
? I / O是否有效? 这是我想要做的。如我所写,我在
S3
中有一个500 [MB]
SQLite
文件。我想开始说“ 9”,每个将读取文件的一个子集并进行一些处理(每个实例将处理500 [MB]“ 0”文件的一个不同子集)。然后,一旦处理完成,每个实例将仅更新它处理的数据的子集(如所解释的,进程之间不会有数据重叠)。 例如,假设
SQLite
文件有1M行:
instance 1
将处理(并更新)rows13ѭ行
instance 2
将处理(并更新)rows15ѭ行 .........................
instance 10
将处理(并更新)rows17ѭ行 有可能吗?听起来还可以吗?任何建议/想法都欢迎。     

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)