本文介绍了SparkSql不支持日期格式的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我试图用最新文件,sparkSql,但它不工作

一样,例如在
javaSparkSqlExample

我尝试添加datecoloumn DOB

在Person类我添加

setter和getter的DOB的日期

当试图执行

  SELECT出生日期,姓名,年龄,COUNT(*)作为TOTALCOUNT由人WHERE DOB> ='1995-01-01'AND年龄< ='2014年2月1日';

同样,在查询代替&下也之间使用尝试; =&放大器; > =以及

  /Volumes/Official/spark-1.0.2-bin-hadoop2$:斌/火花提交--classSimpleApp--master本地[4]尝试/简单 - 项目/目标/简单项目1.0.jar
星火装配已建成蜂巢,包括类路径DataNucleus的罐子
2014年8月21日11:42:47.360的java [955:1903年]无法加载从SCDynamicStore境界映射信息
===数据来源:RDD ===
异常线程mainscala.MatchError:类java.util.Date(java.lang.Class类)


解决方案

它仍然在等待处理,而不是日期您可以使用时间戳

We are going tohave to wait for a while until the 1.2.0 version.

Details:

  • Type: Improvement Improvement
  • Status: Open
  • Priority: Minor
  • Resolution: Unresolved
  • Affects Version/s: 1.0.1
  • Fix Version/s: None
  • Component/s: SQL
  • Target Version/s: 1.2.0

这篇关于SparkSql不支持日期格式的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!

08-05 08:56