我的表test_orc
包含(用于一个分区):
col1 col2 part1
abc def 1
ghi jkl 1
mno pqr 1
koi hai 1
jo pgl 1
hai tre 1
通过运行
hive --orcfiledump /hive/user.db/test_orc/part1=1/000000_0
我得到以下内容:
Structure for /hive/a0m01lf.db/test_orc/part1=1/000000_0 .
2018-02-18 22:10:24 INFO: org.apache.hadoop.hive.ql.io.orc.ReaderImpl - Reading ORC rows from /hive/a0m01lf.db/test_orc/part1=1/000000_0 with {include: null, offset: 0, length: 9223372036854775807} .
Rows: 6 .
Compression: ZLIB .
Compression size: 262144 .
Type: struct<_col0:string,_col1:string> .
Stripe Statistics:
Stripe 1:
Column 0: count: 6 .
Column 1: count: 6 min: abc max: mno sum: 17 .
Column 2: count: 6 min: def max: tre sum: 18 .
File Statistics:
Column 0: count: 6 .
Column 1: count: 6 min: abc max: mno sum: 17 .
Column 2: count: 6 min: def max: tre sum: 18 .
Stripes:
Stripe: offset: 3 data: 58 rows: 6 tail: 49 index: 67 .
Stream: column 0 section ROW_INDEX start: 3 length 9 .
Stream: column 1 section ROW_INDEX start: 12 length 29 .
Stream: column 2 section ROW_INDEX start: 41 length 29 .
Stream: column 1 section DATA start: 70 length 20 .
Stream: column 1 section LENGTH start: 90 length 12 .
Stream: column 2 section DATA start: 102 length 21 .
Stream: column 2 section LENGTH start: 123 length 5 .
Encoding column 0: DIRECT .
Encoding column 1: DIRECT_V2 .
Encoding column 2: DIRECT_V2 .
关于条纹的部分是什么意思?
最佳答案
首先,让我们看一下ORC文件的外观。
现在,上图中以及您的问题中使用了一些关键字!
现在!谈论您从orcfiledump的输出。
另外,您可以对orcfiledump使用各种选项来获得“所需”结果。遵循方便的指南。
// Hive version 0.11 through 0.14:
hive --orcfiledump <location-of-orc-file>
// Hive version 1.1.0 and later:
hive --orcfiledump [-d] [--rowindex <col_ids>] <location-of-orc-file>
// Hive version 1.2.0 and later:
hive --orcfiledump [-d] [-t] [--rowindex <col_ids>] <location-of-orc-file>
// Hive version 1.3.0 and later:
hive --orcfiledump [-j] [-p] [-d] [-t] [--rowindex <col_ids>] [--recover] [--skip-dump]
[--backup-path <new-path>] <location-of-orc-file-or-directory>
遵循上述命令中使用的选项的快速指南。
而不是元数据(Hive 1.1.0和更高版本)。
使它打印指定列的行索引,其中0为
包含所有列的顶层结构,第一个是1
列ID(配置单元1.1.0和更高版本)。
作家。
格式。要漂亮地打印JSON元数据,请在命令中添加-p。
由Hive流媒体生成。
而不转储元数据。
将损坏的文件移动到指定的备份路径(默认值:/ tmp)。
目录。从Hive 1.3.0开始,此URI可以是目录
包含ORC文件。
希望有帮助!
关于hadoop - 有人可以向我解释orcfiledump的输出吗?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/48860476/