环境概况

自建k8s集群,主机操作系统ubuntu16.04,k8s版本v1.14, 集群网络方案calico-3.3.6.

worker节点数50+,均为GPU物理服务器,服务器类型异构,如Nvidia P4/T4/V100等。

异常现象

故障起因是k8s集群新增加了一台worker节点机器server-n1,该机器上带有8张网卡eth0~eth7,

其中eth0~eth3没有配置ip地址,eth4~eth7配置了ip地址,默认使用eth4网卡。

调度到server-n1节点上的pod,无法访问外网。调度到其他node节点上的pod均能正常访问外网。

根据故障现象,初步确定是server-n1服务器的配置问题。

排查过程

1.kubectl get pod -n kube-system -o wide|grep server-n1

发现该节点上的calico-node状态异常,即只有1/2 个容器在Running

 k8s pod访问不通外网问题排查-LMLPHP

2.kubectl describe pod -n kube-system calico-node-5txhs

主要异常信息如下截图

k8s pod访问不通外网问题排查-LMLPHP

 k8s pod访问不通外网问题排查-LMLPHP

3.kubectl logs -n kube-system calico-node-5txhs

发现calico-node组件自动侦测到的网卡为eth7,而不是默认使用的eth4.

k8s pod访问不通外网问题排查-LMLPHP

至此已定位到问题原因。

解决方法

由于eth5~eth7网卡实际没有被使用,关闭eth5~eth7使calico-node侦测到eth4.

1.在/etc/network/interfaces文件内注释冗余网卡

k8s pod访问不通外网问题排查-LMLPHP

2.关闭eth5~eth7

ifconfig eth5 down

ifconfig eth6 down

ifconfig eth7 down

ip addr flush eth5

ip addr flush eth6

ip addr flush eth7

3.删除重建该机器上的calico-node

kubectl delete pod -n kube-system calico-node-5txhsk8s pod访问不通外网问题排查-LMLPHP

10-13 18:28