k8s 之 应用实践-Service,Ingress

1.背景;

        由于简化部署k8s 集群 ,公司的k8s 部署方案使用的是 kubeadm ,且跟进线上线下维度进行集群划分,为何要使用kubeadm 主要有两个原因:1.部署方便快捷,2.k8s节点扩容方便  3.部署难度降低; 


2.系统环境;


系统版本 内核版本 etcd  备注
CentOS Linux release 7.5.1804 3.10.0-862.14.4.el7.x86_64 etcdctl version: 3.3.11





3.相关组件版本;


kubeadmin 组件名称 组件版本名称 备注



k8s.gcr.io/kube-apiserver 



v1.13.4

kube-apiserver 是 Kubernetes 最重要的核心组件之一,主要提供以下的功能
  • 提供集群管理的 REST API 接口,包括认证授权、数据校验以及集群状态变更等

  • 提供其他模块之间的数据交互和通信的枢纽(其他模块通过 API Server 查询或修改数据,只有 API Server 才直接操作 etcd)






k8s.gcr.io/kube-controller-manager 





v1.13.4

kube-scheduler 负责分配调度 Pod 到集群内的节点上,它监听 kube-apiserver,查询还未分配 Node 的 Pod,然后根据调度策略为这些 Pod 分配节点(更新 Pod 的 NodeName 字段)

调度器需要充分考虑诸多的因素:

  • 公平调度

  • 资源高效利用

  • QoS

  • affinity 和 anti-affinity

  • 数据本地化(data locality)

  • 内部负载干扰(inter-workload interference)

  • deadlines


k8s.gcr.io/kube-scheduler


v1.13.4

Controller Manager 由 kube-controller-manager 和 cloud-controller-manager 组成,是 Kubernetes 的大脑,它通过 apiserver 监控整个集群的状态,并确保集群处于预期的工作状态。



 k8s.gcr.io/kube-proxy



v1.13.4

每台机器上都运行一个 kube-proxy 服务,它监听 API server 中 service 和 endpoint 的变化情况,并通过 iptables 等来为服务配置负载均衡(仅支持 TCP 和 UDP)。

kube-proxy 可以直接运行在物理机上,也可以以 static pod 或者 daemonset 的方式运行。

k8s.gcr.io/pause 3.1

Kubernetes为每个Pod都附属了gcr.io/google_containers/pause:latest,这个容器只接管Pod的网络信息,业务容器通过加入网络容器的网络来实现网络共享。此容器随着pod创建而创建,随着Pod删除而删除,正如其名字“pause”

该容器是对业务pod的命名空间的解析。


k8s.gcr.io/coredns 1.2.6 DNS 是 Kubernetes 的核心功能之一,通过 kube-dns 或 CoreDNS 作为集群的必备扩展来提供命名服务。


weaveworks/weave

2.5.2

Weave Net是一个多主机容器网络方案,支持去中心化的控制平面,各个host上的wRouter间通过建立Full Mesh的TCP链接,并通过Gossip来同步控制信息。这种方式省去了集中式的K/V Store,能够在一定程度上减低部署的复杂性,



4.应用实践;


(1).集群已经正常运行如下所示;


k8s 之 应用实践-Service,Ingress


2.查看deployment 配置;

apiVersion: extensions/v1beta1 
kind: Deployment 
metadata: 
  name: nginx-dp
spec: 
  selector:
    matchLabels:
      app: nginx-dp
  replicas: 1
  template: 
    metadata: 
      labels: 
        app: nginx-dp 
    spec: 
      containers: 
        - name: nginx 
          image: nginx:alpine 
          ports: 
            - containerPort: 80


3.查看ervice 配置;


apiVersion: v1
kind: Service
metadata:
  name: nginx-dp-cpf
spec:
  type: NodePort
  ports:
  - nodePort: 30001
    port: 80
    targetPort: 80
    protocol: TCP
  selector:
    app: nginx-dp


4.查看生成endpoints 


k8s 之 应用实践-Service,Ingress


5.查看service 规则;

k8s 之 应用实践-Service,Ingress


6.查看由kube-proxy 生成的iptables 防火墙规则; (正常规则)

k8s 之 应用实践-Service,Ingress


注意:

      1.如果防火墙规则出现 类似如下规则:

        -A KUBE-EXTERNAL-SERVICES -p tcp -m comment --comment "default/nginx-dp-cpf: has no endpoints" -m addrtype --dst-type LOCAL -m tcp --dport 30001 -j REJECT --reject-with icmp-port-unreachable

      2.解决办法;

           (1).net.ipv4.ip_forward = 1  #系统内核路由转发功能

           (2).iptables -P FORWARD ACCEPT  #允许 iptables  FORWARD 链规则通过;

           (3).iptables -P OUTPUT ACCEPT  #允许 iptables  OUTPUT 链规则通过;

           (4).检查deployment labels  和 service labels 设置是否关联正确;

           (5).kubectl get endpoints  --show-labels  #注意此规则和防火墙规则匹配 若出现none 请检查防火墙规则;


7.进行功能测试 (k8s 集群内进行测试);

k8s 之 应用实践-Service,Ingress



    

上一篇:tar用法总结


下一篇:Vscode 配置