ingress
最后更新于
最后更新于
ingress
是k8s一种资源对象,如k8s的Deployment
、Service
资源对象一样。它是一种集群维度暴露服务的方式,正如k8s的ClusterIP
、NodePort
、LoadBalance
一样,但是ClusterIP的方式只能在集群内部访问,NodePort方式的话,测试环境使用还行,当有几十上百的服务在集群中运行时,NodePort的端口管理是灾难,LoadBalance方式受限于云平台,且通常在云平台部署ELB还需要额外的费用。ingress规则是很灵活的,可以根据不同域名、不同path转发请求到不同的service,并且支持https/http。
要理解ingress,需要区分两个概念,ingress
和ingress-controller
:
ingress
:指的是k8s中的一个api对象,一般用yaml配置。作用是定义请求如何转发到service的规则,可以理解为配置模板。
ingress-controller
:具体实现反向代理及负载均衡的程序,对ingress定义的规则进行解析,根据配置的规则来实现请求转发。
简单来说,ingress-controller才是负责具体转发的组件,通过各种方式将它暴露在集群入口,外部对集群的请求流量会先到ingress-controller,而ingress对象是用来告诉ingress-controller该如何转发请求,比如哪些域名哪些path要转发到哪些服务等等。
ingress
是一个API对象,和其他对象一样,通过yaml文件来配置。ingress通过http或https暴露集群内部service,给service提供外部URL、负载均衡、SSL/TLS能力以及基于host的方向代理。ingress要依靠ingress-controller来具体实现以上功能。前一小节的图如果用ingress来表示,大概就是如下配置:
ingress-controller
并不是k8s自带的组件,实际上ingress-controller只是一个统称,用户可以选择不同的ingress-controller实现,目前,由k8s维护的ingress-controller只有google云的GCE
与ingress-nginx
两个,其他还有很多第三方维护的ingress-controller,具体可以参考官方文档。但是不管哪一种ingress-controller,实现的机制都大同小异,只是在具体配置上有差异。一般来说,ingress-controller的形式都是一个pod,里面跑着daemon程序和反向代理程序。daemon负责不断监控集群的变化,根据ingress对象生成配置并应用新配置到反向代理,比如nginx-ingress就是动态生成nginx配置,动态更新upstream,并在需要的时候reload程序应用新配置。为了方便,后面的例子都以k8s官方维护的nginx-ingress
为例。
下面会介绍到ingress-controller
有多种部署方式,但无论ingress-controller采用何种方式部署,ingress
资源对象的部署都一样:
ingress-controller
的部署,需要考虑两个方面:
ingress-controller是作为pod来运行的,以什么方式部署比较好
ingress-controller解决了把如何请求路由到集群内部,那它自己怎么暴露给外部比较好
下面列举一些目前常见的部署和暴露方式,具体使用哪种方式还是得根据实际需求来考虑决定。
如果要把ingress部署在公有云,那用这种方式比较合适。用Deployment部署ingress-controller,创建一个type为LoadBalancer的service关联这组pod。大部分公有云,都会为LoadBalancer的service自动创建一个负载均衡器,通常还绑定了公网地址。只要把域名解析指向该地址,就实现了集群服务的对外暴露。
同样用deployment模式部署ingress-controller,并创建对应的服务,但是type为NodePort。这样,ingress就会暴露在集群节点ip的特定端口上。由于nodeport暴露的端口是随机端口,一般会在前面再搭建一套负载均衡器来转发请求。该方式一般用于宿主机是相对固定的环境ip地址不变的场景。 NodePort方式暴露ingress虽然简单方便,但是NodePort多了一层NAT,在请求量级很大时可能对性能会有一定影响。
4.2.1 下载部署ingress-nginx controller所需要的deploy.yaml文件
该yaml默认使用nodePort方式部署Service,我们可以指定nodePort,而不是让k8s自己分配。
不要试图将nodePort指定为80
或者443
,否则你会得到如下提示:
4.2.2 修改镜像仓库地址
deploy.yaml里面的镜像地址是:us.gcr.io/k8s-artifacts-prod/ingress-nginx/controller:v0.34.1@sha256:0e072dddd1f7f8fc8909a2ca6f65e76c5f0d2fcfb8be47935ae3457e8bbceb20
该地址无法被访问,解决办法参考:如何在国内顺畅下载被墙的 Docker 镜像?
修改后如下图所示:
4.2.3 部署ingress-nginx controller
如果修改了yaml重新部署:
4.2.4 检查是否部署成功
查看controller是否running
查看service
登陆任意节点,运行:
返回 200 ,说明 nginx OK。
至此,ingress-nginx controller已经部署完毕。通过域名
+nodePort
的方式访问相应的service,例:http://ceres-admin-web.6and.ltd:31080
,如果你跟我一样是强迫症晚期,一定期望完美的访问方式是:http://ceres-admin-web.6and.ltd
,下面的4.3小节将是强迫症晚期的福音。
用DaemonSet
结合nodeselector来部署ingress-controller到特定的node上,然后使用HostNetwork直接把该pod与宿主机node的网络打通,直接使用宿主机的80/433端口就能访问服务。这时,ingress-controller所在的node机器就很类似传统架构的边缘节点,比如机房入口的nginx服务器。该方式整个请求链路最简单,性能相对NodePort模式更好。缺点是由于直接利用宿主机节点的网络和端口,一个node只能部署一个ingress-controller pod。比较适合大并发的生产环境使用。
4.3.1 给要部署nginx-ingress的node打上特定标签
我们需要使用daemonset部署到特定node,需要修改部分配置:先给要部署nginx-ingress的node打上特定标签,这里测试部署在k8s-node1
这个节点。
4.3.2 修改deploy.yaml的deployment部分配置
删除指定的nodePort:
4.3.3 重启
4.3.4 检查
可以看到,nginx-controller的pod已经部署在在k8s-node1上了:
到k8s-node1上看下本地端口:
由于配置了hostnetwork,nginx已经在node主机本地监听80/443/8181端口。其中8181是nginx-controller默认配置的一个default backend。这样,只要访问node主机有公网IP,就可以直接映射域名来对外网暴露服务了。如果要nginx高可用的话,可以在多个node上部署,并在前面再搭建一套LVS+keepalive做负载均衡。用hostnetwork的另一个好处是,如果lvs用DR模式的话,是不支持端口映射的,这时候如果用nodeport,暴露非标准的端口,管理起来会很麻烦。
现在我们就可以优雅的使用:http://ceres-admin-web.6and.ltd
来访问我们的服务了。
k8s ingress原理及ingress-nginx部署测试
见异思迁:K8s 部署 Nginx Ingress Controller 之 kubernetes/ingress-nginx