我想以 Parquet 格式将数据从数据库导入HDFS,然后填充配置单元表。我无法使用sqoop import --hive-import,因为sqoop将数据从--target-dir移至配置单元metastore dir。
因此,我必须创建配置单元架构sqoop create-hive-table,将配置单元表转换为 Parquet SET FILEFORMAT parquet,更改配置单元表的位置以指向HDFS中合适的文件,最后使用sqoop import --as-parquet-file将数据导入表中

我在配置单元中遇到问题:由于此错误,我无法预览表的数据:

Failed with exception java.io.IOException:org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.UnsupportedOperationException: Cannot inspect org.apache.hadoop.io.LongWritable

1)如何解决这个问题?

2)是否有更好的解决方案来处理此用例?

最佳答案

您的 hive 版本是什么?如果您的版本是 1.0.0 ,那就是一个错误。请遵循此link

此错误已在配置单元1.2.0 版本中修复

关于hadoop - Hive收集数据后抛出错误,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/43933134/

10-12 22:16
查看更多