导入400k +记录CSV到mysql DB

问题描述

我已经为其编写了代码,将其导入数据库,并且工作正常。我已经使用数组分块方法将数据插入数据库。 我已经用两种方式编写循环,一种是仅单循环,另一种是嵌套的。

我的问题是哪种/方法可以更快地运行

请记住这些块和循环,让我知道将数据插入DB的速度更快。 CSV文件中的数据超过40万。

方法1:

props

方法2:

  $data_chunk1 = array_chunk($insertData,60000);
  foreach ($data_chunk1 as $r)
  { 
      $data_chunk2 = array_chunk($r,15000);
      foreach ($data_chunk2 as $r1)
      { 
          $data_chunk3 = array_chunk($r1,3000);
          foreach ($data_chunk3 as $r2)
          { 
              call::insert($r2);
          }
      }
  }

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

错误1:Request method ‘DELETE‘ not supported 错误还原:...
错误1:启动docker镜像时报错:Error response from daemon:...
错误1:private field ‘xxx‘ is never assigned 按Alt...
报错如下,通过源不能下载,最后警告pip需升级版本 Requirem...