我在为我的项目获取 hive 中的查询的dump(text file delimited by ^)时遇到了困难-使用Twitter在股市中进行情感分析。

下面给出了应该在hdfs或本地文件系统中获取输出的查询:

hive> select t.cmpname,t.datecol,t.tweet,st.diff FROM tweet t LEFT OUTER JOIN  stock st ON(t.datecol = st.datecol AND lower(t.cmpname) = lower(st.cmpname));

该查询产生正确的输出,但是当我尝试将其转储到hdfs中时,它给了我一个错误。

我通过了stackoverflow中提供的各种其他解决方案来进行转储,但找不到适合我的合适解决方案。

谢谢你的帮助。

最佳答案

INSERT OVERWRITE DIRECTORY '/path/to/dir'
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '^'
SELECT t.cmpname,t.datecol,t.tweet,st.diff FROM tweet t LEFT OUTER JOIN stock st
    ON(t.datecol = st.datecol AND lower(t.cmpname) = lower(st.cmpname));

关于hadoop - 配置单元查询转储问题,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/34105111/

10-16 01:16