问题描述
我有一个hql从大型源表(大于500TB)中读取数据,并将数据写入静态分区的配置单元表中。我每天在此表上写入大约1TB的数据。使用MapReduce作业可以很好地进行数据处理,但是写入速度很慢,数据加载时间为10-28小时。我尝试将表文件格式从序列更改为ORC,这在写入时并没有增加太多性能。我最初在表上使用顺序文件格式进行了Snappy压缩。我启用了并行执行,自动映射联接,CBO,矢量化以总体上增强处理能力。为了进行特别的编写,我尝试设置hive.exec.scratchdir=/tmp/hive
来进行从.hive-staging到目标目录的复制操作到移动/重命名操作。但这失败并显示以下消息。
还尝试设置hive.exec.copyfile.maxsize=1099511627776
,但同样失败。我正在将mapreduce2与Yarn / application master一起使用。有人可以告诉我如何直接写入目标目录或使用重命名操作而不是花费很长时间的复制吗?
Failed with exception
Unable to move source /xxx/tmp/aaa/hive_hive_2020-10-02_15-06-33_205_3126778922824450411-1/-ext-10000
to destination /xxx/ttt/temp/fff/c=FULL/dt=20200922
Failed: Execution Error,return code 1 from org.apache.hadoop.hive.ql.exec.MoveTask
Error: java.lang.RuntimeException: Hive Runtime Error while closing operators
at org.apache.hadoop.hive.ql.exec.mr.ExecMapper.close(ExecMapper.java:210)
at org.apache.hadoop.mapred.MapRunner.run(MapRunner.java:61)
at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:453)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:343)
at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:170)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:422)
at org.apache.hadoop.security.UserGroupinformation.doAs(UserGroupinformation.java:1869)
at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:164) Caused by: org.apache.hadoop.hive.ql.Metadata.HiveException: Unable to rename output from: /xxx/ttt/temp/fff/c=FULL/.hive-staging_hive_2020-10-02_16-52-38_613_8689698651254070943-1/_task_tmp.-ext-10000/_tmp.005299_3 to: /xxx/temp/fff/c=FULL/.hive-staging_hive_2020-10-02_16-52-38_613_8689698651254070943-1/_tmp.-ext-10000/005299_3
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)