Spark Parquet 压缩和编码方案

问题描述

我需要编码由我的 pyspark 脚本生成的镶木地板文件,以便编码使用 RLE_DICTIONARY (https://www.slideshare.net/databricks/the-parquet-format-and-performance-optimization-opportunities)。

其次,我需要应用压缩,但不是在完整文件级别,但我需要行组(拆分单元)级别压缩 - 理想情况下使用 snappy,因此我们可以支持来自 Redshift Spectrum ({{ 3}}).

但是,查看官方 parquet 文档,可以设置的 parquet 相关属性很少(https://docs.aws.amazon.com/redshift/latest/dg/c-spectrum-data-files.html)。 此属性

spark.sql.parquet.compression.codec 

认为 snappy,但这是否应用文件级别或拆分级别压缩(即它是首先生成 parquet 文件然后进行 snappy 压缩,还是首先它 snappy 压缩行组 - 拆分,然后生成文件级别?)

>

这里的认行为是什么?认行为是否满足我应用拆分块压缩而不是文件级压缩的要求? RLE_DICTIONARY 是 Spark 使用的认编码吗?我找不到定义编码本身的选项?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...