目录
一 . 开窗函数
二 . SparkSQL函数定义
1. HIVE_SQL用户自定义函数
UDF: 一对一
UDAF: 多对一
UDTF: 一对多
spark sql原生python只能写udf, 借助pandas等第三方组件就可以写udf和udaf
2.Spark原生UDF
第一步:创建python函数
第二步: 将python函数注册到Spark sql中
注册方式一: udf对象 = sparkSession.udf.register(参数1,参数2,参数3)
注册方式二(只能DSL): udf对象 = F.udf(参数1,参数2)
注册方式三(只能DSL): 语法糖写法 @F.udf(returnType=返回值类型) 放置到对应Python的函数上面
返回基本类型
返回复杂类型
3. pandasUDF
Arrow是一种内存中的列式数据格式,提升跨语言数据传输速度,提升大数据分析项目的运行效率
基于Pandas的UDF函数来转换为Spark SQL的UDF函数进行使用。底层是基于Arrow框架来完成数据传输,允许向量化(可以充分利用计算机CPU性能)操作。
Pandas的UDF函数其实本质上就是Python的函数,只不过函数的传入数据类型为Pandas的类型
4. pandasUDAF
UDAF对自定义Python函数的要求: 输入数据的类型必须是Pandas中的Series对象,返回值类型必须是Python中的标量数据类型
三. Spark on HIVE
spark on hive的目的就是替换hive中的hive server 2服务
四.SparkSQL的执行流程
1- 接收客户端提交过来的SQL/DSL代码,首先会校验SQL/DSL的语法是否正常。如果通过校验,根据SQL/DSL的执行顺序,生成未解析的逻辑计划,也叫做AST抽象语法树
2- 对于AST抽象语法树加入元数据信息,确定一共涉及到哪些字段、字段的数据类型是什么,以及涉及到的表的其他相关元数据信息。加入元数据信息以后,就得到了(未优化的)逻辑计划
3- 对(未优化的)逻辑计划执行优化操作,整个优化通过优化器来执行。在优化器匹配相对应的优化规则,实时具体的优化。SparkSQL底层提供了一两百中优化规则,得到优化的逻辑计划。例如: 谓词下推(断言下推)、列值裁剪
3.1- 谓词下推: 也叫做断言下推。将数据过滤操作提前到数据扫描的时候执行,减少后续处理的数据量,提升效率。
3.2- 列值裁剪: 将一张表中与数据分析不相关的字段不加载进来,只加载数据分析用到的字段。减少后续处理的数据量,提升效率。
4- 由于优化规则很多,导致会得到多个优化的逻辑计划。在转换成物理执行计划的过程中,会根据成本模型(对比每个计划运行的耗时、资源消耗等)得到最优的一个物理执行计划
5- 将物理执行计划通过code generation(代码生成器),转变成Spark RDD的代码
6- 最后就是将Spark RDD代码部署到集群上运行。后续过程与Spark内核调度中Job的调度流程完全一致。