我想以 Parquet 格式将数据从数据库导入HDFS,然后填充配置单元表。我无法使用sqoop import --hive-import
,因为sqoop将数据从--target-dir
移至配置单元metastore dir。
因此,我必须创建配置单元架构sqoop create-hive-table
,将配置单元表转换为 Parquet SET FILEFORMAT parquet
,更改配置单元表的位置以指向HDFS中合适的文件,最后使用sqoop import --as-parquet-file
将数据导入表中
我在配置单元中遇到问题:由于此错误,我无法预览表的数据:
Failed with exception java.io.IOException:org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.UnsupportedOperationException: Cannot inspect org.apache.hadoop.io.LongWritable
1)如何解决这个问题?
2)是否有更好的解决方案来处理此用例?
最佳答案
您的 hive 版本是什么?如果您的版本是 1.0.0 ,那就是一个错误。请遵循此link
此错误已在配置单元1.2.0 版本中修复
关于hadoop - Hive收集数据后抛出错误,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/43933134/