如何将 SNAPPY 格式的压缩镶木地板数据从 Google Storage 存储桶加载到 BigQuery 表

问题描述

我正在尝试从导出到 GS 存储桶的数据加载 Big Query 表。此数据采用 Parquet 格式并压缩为 SNAPPY。我想分配自定义分区架构。

bq load --source_format=PARQUET  --hive_partitioning_mode=CUSTOM --hive_partitioning_source_uri_prefix=gs://dummy_bucket/test_table/{refresh_date:DATE} test_ds.test_table gs://dummy_bucket/test_table/*

执行上述命令给我错误,如-

正在等待 bqjob_r1ed7792315a020fc_00000177ef24ff26_1 ... (0s) 当前状态:DONE
加载操作中的 BigQuery 错误错误处理作业“project_dev:bqjob_r1ed7792315a020fc_00000177ef24ff26_1”:读取数据时出错,错误消息:输入文件不是 Parquet 格式。 失败详情:

  • 查询:无法向表添加配置单元分区 test_table_bfcbdfe3_665a_4472_b0e9_8617f131b1ab_source -- 从底层 uri 创建表失败.. 底层错误:输入 文件不是 Parquet 格式..

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...