本文介绍了SparkSql不支持日期格式的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
我试图用最新文件,sparkSql,但它不工作
一样,例如在
javaSparkSqlExample
我尝试添加datecoloumn DOB
在Person类我添加
setter和getter的DOB的日期
当试图执行
SELECT出生日期,姓名,年龄,COUNT(*)作为TOTALCOUNT由人WHERE DOB> ='1995-01-01'AND年龄< ='2014年2月1日';
同样,在查询代替&下也之间使用尝试; =&放大器; > =以及
/Volumes/Official/spark-1.0.2-bin-hadoop2$:斌/火花提交--classSimpleApp--master本地[4]尝试/简单 - 项目/目标/简单项目1.0.jar
星火装配已建成蜂巢,包括类路径DataNucleus的罐子
2014年8月21日11:42:47.360的java [955:1903年]无法加载从SCDynamicStore境界映射信息
===数据来源:RDD ===
异常线程mainscala.MatchError:类java.util.Date(java.lang.Class类)
解决方案
它仍然在等待处理,而不是日期
您可以使用时间戳
在人
类
We are going tohave to wait for a while until the 1.2.0 version.
Details:
- Type: Improvement Improvement
- Status: Open
- Priority: Minor
- Resolution: Unresolved
- Affects Version/s: 1.0.1
- Fix Version/s: None
- Component/s: SQL
- Target Version/s: 1.2.0
这篇关于SparkSql不支持日期格式的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!