打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
大数据IMF传奇行动绝密课程第64课:Spark SQL下Parquet的数据切分和压缩内幕详解

1、Spark SQL下的Parquet数据切分
2、Spark SQL下的Parquet数据压缩

parquetBlocksize总体上讲是压缩后的大小

private static final Log LOG = Log.getLog(ParquetOutputFormat.class);
public static final String BLOCK_SIZE = “parquet.block.size”;
public static final String PAGE_SIZE = “parquet.page.size”;
public static final String COMPRESSION = “parquet.compression”;
public static final String WRITE_SUPPORT_CLASS = “parquet.write.support.class”;
public static final String DICTIONARY_PAGE_SIZE = “parquet.dictionary.page.size”;
public static final String ENABLE_DICTIONARY = “parquet.enable.dictionary”;
public static final String VALIDATION = “parquet.validation”;
public static final String WRITER_VERSION = “parquet.writer.version”;
public static final String ENABLE_JOB_SUMMARY = “parquet.enable.summary-metadata”;
public static final String MEMORY_POOL_RATIO = “parquet.memory.pool.ratio”;
public static final String MIN_MEMORY_ALLOCATION = “parquet.memory.min.chunk.size”;

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
spark sql根本使用方法介绍
Spark SQL 之 Data Sources
C#--对象转Json序列化
缓存
将Excel表中的数据 转换成XML 并对XML数据进行读取
一次实践:spark查询hive速度缓慢原因分析并以此看到spark基础架构
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服