1.hive-client 无法安装

一直报错(symlink target  already exists and it is not a symlink.),hive-client 已经存在且不是符号连接,查看确实如此

试了很多种办法,比如重新安装,比如手动删除,手动连接,都没有奏效

DO:

最后通过查看错误日志,拿到执行报错的脚本(ambari-python-wrap /usr/bin/hdp-select set hive-client 2.6.5.0-292),删除存在的目录后,再执行该脚本,最后重新在前台管理界面进行重试安装-----------成功。

2.无法查找到 accumulo_$ 包名,后续就无法安装,这种情况大多是本地源没有配置成功,或则有错误指向。

DO:

 a.配置本地源,包括ambari,hdp,hdp-util

b.修改 /etc/yum.repos.d 下的 ambari.repo 和 hdp.repo 为上面设置的本地源

c.执行 yum clean all ,yum makecache,yum repolist

在此之后再走离线安装的程序。

3.spark2 thrift server 无法启动,报错 hdp.version is not set while running Spark under HDP

DO:

在配置文件 中的 content 中配置 export HDP_VERSION=2.6.5.0-292 重启即可解决。

4.livy for spark2 server 无法启动,报错,can not mkdir /livy2-recovery

DO:

手动创建该目录,重启即可解决。

5.ambari 服务删除

curl -u admin:admin -H "X-Requested-By: ambari" -X DELETE http://hadoop-001:8080/api/v1/clusters/youlanad/services/PIG

05-11 20:44