文章目录
一. 问题描述与方案分析
1. 问题描述
用户需要创建永久的Hive UDF供JDBC连接使用,一开始先通过hive client的方式注册(输入hive,进入hive交互界面)发现,udf存在,但是通过jdbc连接的时候无法找到此函数。
如下相关操作:
-- 1. 上传包到文件系统中
hadoop fs -put /home/hadoop/lib/hive-1.0-SNAPSHOT.jar /lib/
-- 创建永久函数
-- a.进入hive终端
hive
-- b. 注册hive永久函数
-- 注意:函数是绑定到某个库下的,此时是绑定到default库下。
CREATE FUNCTION sayhello AS 'com.gao.bigdata.HelloUDF' USING JAR 'hdfs://hadoop002:9000/lib/hive-1.0-SNAPSHOT.jar';
-- 查看函数列表
show functions like '*sayhello*';
2. 方案分析
通过重启hiveserver2之后通过jdbc连接找到了此函数。
相关参考见: [cloudera] Error executing a hive UDF through jbdc
从上截图可以知道有两个要点
通过操作之后发现方案可行
3. 方案优化
上面的解决方案虽然可行,但运维成本较高,现进行优化。
3.1. 通过文件系统,来保证jar包的节点一致性
首先将所有的jar都放到各个hiveserver2节点下的原因是add jar使用了本地路径,导致每个jdbc连接hiveserver2的时候都是从本地找jar。我们可以把jar放到hdfs上,这样add jar每个hiveserver2都能够从远端拉去jar,这就是文件的状态一致性。
3.2. hiveserver2 session的更新优化
其次要重启所有的hiveserver2,这也造成一定的运维问题,甚至会影响正在运行任务的jdbc连接。
先看下hive架构图:
到这里我们就得到了较为简化后的执行方案,具体操作见下节。
二. 实现与操作
通过beeline方式登录hive
beeline -u jdbc:hive2://hiveserver2-hostname:10000 -n user -p password
udf绑定到某个库下
use databaseA
添加udf
ADD JAR hdfs:///xxx/hive-demo-1.0-SNAPSHOT.jar;
CREATE FUNCTION to_upper_xxx AS 'com.gao.udf.UpperCaseUDF' USING JAR 'hdfs:///xxx/hive-demo-1.0-SNAPSHOT.jar';
测试:
上述创建的udf是绑定到databaseA库下。