冬季实战营第四期:零基础容器技术实战实战记录

今天进入了一个新的领域的学习。
阿里云容器服务Kubernetes版快速入门

  1. 创建资源

1、在体验实验室页面中间,单击创建资源,创建所需资源。

2、在页面左侧导航栏中,单击云产品资源列表,查看本次实验资源相关信息。

说明 :

资源创建过程需要10分钟左右。完成实验资源的创建后,您可以在云产品资源列表查看已创建的资源信息,例如:IP地址、用户名和密码等。

  1. 部署并公开应用

本步骤指导您如何在ACK集群中快速部署一个无状态应用(Deployment),即魔方游戏,并将该应用向公网公开。关于创建Deployment的详细参数描述,请参见创建无状态工作负载Deployment。

双击打开虚拟桌面的Firefox ESR浏览器,在RAM用户登录框中点击“下一步”,复制云产品资源列表中子用户密码,粘按CTRL+V把密码粘贴到密码输区,登陆子账户(后续在远程桌面里的粘贴操作均使用CTRL + V快捷键)。
复制容器服务管理控制台地址,在Firefox浏览器打开新页签,粘贴并访问容器服务管理控制台。
https://cs.console.aliyun.com/
在集群列表页面中,单击目标集群名称。

在集群管理页左侧导航栏中,选择工作负载>无状态。

在无状态页面中,单击使用镜像创建。

在应用基本信息页签,设置应用名称,例如ack-cube,单击下一步。

在容器配置页签,依次设置镜像名称、镜像Tag、资源限制、所需资源和端口,单击下一步。
参数说明:

镜像名称:输入registry.cn-hangzhou.aliyuncs.com/acr-toolkit/ack-cube。
镜像Tag:单击选择镜像Tag选择镜像的版本。若不指定,默认为最新版。示例:1.0。
资源限制:设置CPU为1 Core,内存为1024 MiB。
所需资源:设置CPU为0.25 Core,内存为512 MiB。
端口:设置容器的端口,输入名称ack-cube,容器端口80。

在高级配置页签,单击服务(Service)右侧的创建。

在创建服务对话框中,设置服务的相关参数,单击创建,以通过该服务公开应用。
参数说明:

名称:输入服务的名称。示例:ack-cube-svc。
类型:选择负载均衡>公网访问>新建SLB。
服务端口:设置服务端口为80。
容器端口:设置服务端口为80。

在高级配置页签,单击页面右下角的创建。

返回如下页面,表示应用创建成功,单击查看应用详情。

在应用详情页面,您可以查看应用的容器组、访问方式、事件、容器伸缩、历史版本、日志和触发器等信息。

  1. 测试应用

本步骤指导您如何通过服务(Service)来访问新部署的容器化应用。

切换回容器服务管理控制台页签。在左侧导航栏中,选择网络>服务。
在服务列表页面,找到新创建的服务(即ack-cube-svc),记录外部端点列的IP地址。

3、打开您本机的浏览器,在地址栏中输入并访问外部端点列的IP地址,您即可体验魔方游戏。

说明:

需要在本地浏览器访问查看哦。

  1. 监控应用

本步骤指导您如何监控应用的运行状况,如CPU利用率、内存利用率、网络I/O压力等指标。

切换回容器服务管理控制台页签。在左侧导航栏中,选择运维管理>Prometheus监控。
在Prometheus监控页面,单击无状态应用监控。

在无状态应用监控页签,选择namespace为default,选择deployment为ack-cube。
您可以查看应用的资源使用情况,包括创建应用时所设置的资源阈值,所需资源(对应图中request)和资源限制(对应图中limit)。

在无状态应用监控页签,单击右侧图标>集群Pod监控。

在集群Pod监控页签,选择namespace为default,选择Pod为待监控的Pod。
您可以查看单个Pod的资源使用情况。

第二日
Docker 是一个开源的容器引擎,用于创建、管理和编排容器,可以轻松为任何应用创建一个轻量级、可移植、自给自足的容器。本步骤将在ECS上部署一个Docker服务,并配置DockerHub的镜像加速器。

  1. 点击右侧 ,切换至Web Terminal,输入以下命令,安装Docker的依赖库。

yum install -y yum-utils device-mapper-persistent-data lvm2

  1. 添加Docker CE的软件源信息。

yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

  1. 安装Docker CE。

yum makecache fast &&
yum -y install docker-ce

  1. 启动Docker服务。

systemctl start docker

  1. 配置DockerHub镜像加速器。

tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": ["https://registry.docker-cn.com"]
}
EOF

  1. 重启Docker服务。

systemctl restart docker

  1. 准备应用代码和Dockerfile

本步骤操作将在工作空间下创建一个基于Golang的HelloWorld代码文件和一个用来构建运行Hello代码所需环境镜像的Dockerfile文件。

  1. 创建工作空间。

mkdir -p /tmp/demo && cd /tmp/demo

  1. 在工作空间下创建HelloWorld代码文件,用来在容器环境中监听HTTP服务,输出HelloWorld字符串。

cat > /tmp/demo/main.go << EOF
package main

import (

    "fmt"
    "net/http"

)

func main() {

    http.HandleFunc("/", func(w http.ResponseWriter, r *http.Request) {
            fmt.Fprintf(w, "Hello! World\n")
    })

    fmt.Println("start to serve...")
    http.ListenAndServe(":80", nil)

}
EOF

  1. 在工作空间下创建Dockerfile文件。

cat > /tmp/demo/Dockerfile << EOF
FROM golang:1.12-alpine

change current working dir

WORKDIR /go/src/app

copy main.go into /go/src/app

COPY . .

go build and install the app

RUN go install -v ./...

run the app by default

CMD ["app"]
EOF

  1. 本地构建镜像并运行镜像

本步骤将指导您使用Docker基本命令构建和运行镜

  1. 使用docker build命令构建镜像。

docker build . -t demo:v1
命令运行结果如下所示:

说明:

参数.表示指定当前路径作为构建上下文,即Dockerfile所在的本地路径。
参数-t demo:v1指定镜像名称和标签。

  1. 使用docker run命令运行镜像。

docker run -d -p 8000:80 demo:v1
命令运行结果如下所示:

说明:

参数-d设置容器运行模式为后台运行。
参数-p 8000:80将容器内部使用的网络端口映射到主机上,其中8000为主机端口,80为容器内部使用端口。

  1. 使用curl工具访问容器中的HelloWorld服务。

curl localhost:8000
命令运行结果如下所示:

  1. 使用docker rm命令删除容器。

docker rm -f $(docker ps -a | grep "demo:v1" | awk '{print $1}')
命令运行结果如下所示:

  1. 创建远程镜像仓库

本步骤操作将指导您使用自己的阿里云账号开通容器镜像服务并创建镜像仓库。阿里云容器镜像服务默认实例版可免费使用,其使用限制请参见容器镜像服务计费说明。

  1. 使用您的阿里云主账号登录容器镜像服务控制台。
  2. 单击【前往开通】。
  1. 单击【设置Registry登录密码】 。
  1. 设置阿里云Docker Registry登录密码,然后单击 【确定】 。
  1. 在容器镜像服务控制台,依次单击 【个人实例】 > 【命名空间】 > 【创建命名空间】,在 【创建命名空间】 弹框中填写命令空间名称,然后单击 【确定】 。
  1. 选择 【镜像仓库】 > 【创建镜像仓库】,在 【创建镜像仓库】 弹框中选择 【命名空间】 ,填写 仓库名称 和 摘要 ,然后单击 【下一步】 。
  1. 单击 【本地仓库】 > 【创建镜像仓库】 。
  1. 在镜像仓库列表,选择上一步创建的镜像仓库,单击 【管理】 ,查看镜像仓库详情。
  1. 推送镜像

本步骤操作将本地镜像推送到远程仓库中,并运行远程仓库中的指定版本镜像。请将本步骤命令中涉及的远程镜像地址替换为步骤五中创建的镜像仓库的公网地址。

1.执行以下命令登录到阿里云Docker Registry。

docker login --username="用户名" registry.cn-hangzhou.aliyuncs.com
说明: 请将下面命令中的用户名替换为您的阿里云账号全名,回车后输入远程镜像仓库密码,密码为步骤六开通服务时设置的密码。

请登录阿里云用户中心查看您的主账号用户名称。

命令运行结果如下所示:

  1. 标记本地镜像,将其归入远程仓库。

docker tag demo:v1 registry.cn-hangzhou.aliyuncs.com/space_test/demo:v1

  1. 将本地镜像推送到远程仓库。

docker push registry.cn-hangzhou.aliyuncs.com/space_test/demo:v1
命令运行结果如下所示:

  1. 拉取指定版本的远程镜像。

docker pull registry.cn-hangzhou.aliyuncs.com/space_test/demo:v1
命令运行结果如下所示:

  1. 运行拉取的远程镜像。

docker run -d -p 8000:80 registry.cn-hangzhou.aliyuncs.com/space_test/demo:v1
命令运行结果如下所示:

  1. 访问HelloWorld服务。

curl localhost:8000

今天学习的内容有点儿多。
首先搭建了环境,然后安装探针。
之后重头戏来了,连续的几场演练。
练的我有点儿晕头转向~
点击右侧 图标,切换到远程桌面操作界面。
双击打开虚拟桌面的Firefox ESR浏览器,在RAM用户登录框中点击“下一步”,复制云产品资源列表中子用户密码,粘按CTRL+V把密码粘贴到密码输区,登陆子账户(后续在远程桌面里的粘贴操作均使用CTRL + V快捷键)。
复制容器服务ACK控制台地址,在FireFox浏览器打开新页签,粘贴并访问容器服务ACK控制台。
https://cs.console.aliyun.com/
在集群页面,单击详情。

在左侧导航栏,单击无状态。

在无状态页面,单击使用YAML创建资源。

在创建页面,复制以下代码并粘贴到模板框中,然后单击创建。
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nacos-server
spec:
  selector:
    matchLabels:
      app: nacos-server
  template:
    metadata:
      labels:
        app: nacos-server
    spec:
      containers:
        - name: nacos-standalone
          image: registry.cn-beijing.aliyuncs.com/ahas_demo/nacos:1.0.0
          ports:
            - containerPort: 8848
          env:
            - name: PREFER_HOST_MODE
              value: "hostname"
            - name: MODE
              value: "standalone"
          resources:
            limits:
              cpu: 1
              memory: 2048Mi
            requests:
              cpu: 200m

              memory: 512Mi

apiVersion: v1
kind: Service
metadata:
  name: nacos-server
spec:
  type: ClusterIP
  selector:
    app: nacos-server
  ports:
    - name: http
      port: 8848

      targetPort: 8848

apiVersion: apps/v1
kind: Deployment
metadata:
  name: cart-redis
spec:
  selector:
    matchLabels:
      app: cart-redis
  replicas: 1
  template:
    metadata:
      labels:
        app: cart-redis
    spec:
      containers:
        - name: cart-redis
          image: redis:alpine
          imagePullPolicy: IfNotPresent
          ports:
            - containerPort: 6379
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m

              memory: 128Mi

apiVersion: v1
kind: Service
metadata:
  labels:
    app: cart-redis
  name: cart-redis
spec:
  ports:
    - port: 6379
      targetPort: 6379
  selector:

    app: cart-redis

apiVersion: apps/v1
kind: Deployment
metadata:
  name: cartservice
spec:
  selector:
    matchLabels:
      app: cartservice
  template:
    metadata:
      labels:
        app: cartservice
    spec:
      containers:
        - name: cartservice
          image: registry.cn-beijing.aliyuncs.com/ahas_demo/cartservice:1.0.0
          imagePullPolicy: Always
          env:
            - name: dubbo.registry.address
              value: "nacos://nacos-server:8848"
            - name: spring.cloud.nacos.discovery.server-addr
              value: "nacos-server:8848"
            - name: spring.cloud.nacos.config.server-addr
              value: "nacos-server:8848"
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m

              memory: 128Mi

apiVersion: apps/v1
kind: Deployment
metadata:
  name: recommendationservice
spec:
  selector:
    matchLabels:
      app: recommendationservice
  template:
    metadata:
      labels:
        app: recommendationservice
        version: 1.0.0-SNAPSHOT
    spec:
      containers:
        - name: recommendationservice
          image: registry.cn-beijing.aliyuncs.com/ahas_demo/recomendationservice:1.0.0
          # imagePullPolicy: Always
          env:
            - name: dubbo.registry.address
              value: "nacos://nacos-server:8848"
            - name: spring.cloud.nacos.discovery.server-addr
              value: "nacos-server:8848"
            - name: spring.cloud.nacos.config.server-addr
              value: "nacos-server:8848"
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m

              memory: 128Mi

apiVersion: apps/v1
kind: Deployment
metadata:
  name: product-mysql
spec:
  selector:
    matchLabels:
      app: product-mysql
  replicas: 1
  strategy:
    type: Recreate
  template:
    metadata:
      labels:
        app: product-mysql
    spec:
      containers:
        - args:
            - --character-set-server=utf8mb4
            - --collation-server=utf8mb4_unicode_ci
          env:
            - name: MYSQL_DATABASE
              value: product
            - name: MYSQL_ROOT_PASSWORD
              value: productservice
          image: mysql:5.6
          name: product-mysql
          ports:
            - containerPort: 3306
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m

              memory: 128Mi

apiVersion: v1
kind: Service
metadata:
  labels:
    app: product-mysql
  name: product-mysql
spec:
  ports:
    - port: 3306
      targetPort: 3306
  selector:

    app: product-mysql

apiVersion: apps/v1
kind: Deployment
metadata:
  name: productservice
spec:
  selector:
    matchLabels:
      app: productservice
  template:
    metadata:
      labels:
        app: productservice
        version: 1.0.0-SNAPSHOT
    spec:
      containers:
        - name: productservice
          image: registry.cn-beijing.aliyuncs.com/ahas_demo/productservice:1.0.0
          imagePullPolicy: Always
          env:
            - name: dubbo.registry.address
              value: "nacos://nacos-server:8848"
            - name: spring.cloud.nacos.discovery.server-addr
              value: "nacos-server:8848"
            - name: spring.cloud.nacos.config.server-addr
              value: "nacos-server:8848"
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m

              memory: 128Mi

apiVersion: apps/v1
kind: Deployment
metadata:
  name: checkout-mysql
spec:
  selector:
    matchLabels:
      app: checkout-mysql
  replicas: 1
  strategy:
    type: Recreate
  template:
    metadata:
      labels:
        app: checkout-mysql
    spec:
      containers:
        - args:
            - --character-set-server=utf8mb4
            - --collation-server=utf8mb4_unicode_ci
          env:
            - name: MYSQL_DATABASE
              value: checkout
            - name: MYSQL_ROOT_PASSWORD
              value: checkoutservice
          image: mysql:5.6
          name: checkout-mysql
          ports:
            - containerPort: 3306
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m

              memory: 128Mi

apiVersion: v1
kind: Service
metadata:
  labels:
    app: checkout-mysql
  name: checkout-mysql
spec:
  ports:
    - port: 3306
      targetPort: 3306
  selector:

    app: checkout-mysql

apiVersion: apps/v1
kind: Deployment
metadata:
  name: checkoutservice
spec:
  selector:
    matchLabels:
      app: checkoutservice
  template:
    metadata:
      labels:
        app: checkoutservice
    spec:
      containers:
        - name: checkoutservice
          image: registry.cn-beijing.aliyuncs.com/ahas_demo/checkoutservice:health
          imagePullPolicy: Always
          ports:
            - name: liveness-port
              containerPort: 8080
              protocol: TCP
          env:
            - name: dubbo.registry.address
              value: "nacos://nacos-server:8848"
            - name: spring.cloud.nacos.discovery.server-addr
              value: "nacos-server:8848"
            - name: spring.cloud.nacos.config.server-addr
              value: "nacos-server:8848"
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m
              memory: 128Mi
          livenessProbe:
            failureThreshold: 3
            httpGet:
              path: /health
              port: liveness-port
              scheme: HTTP
            initialDelaySeconds: 5
            periodSeconds: 10
            successThreshold: 1
            timeoutSeconds: 1
          startupProbe:
            failureThreshold: 3
            httpGet:
              path: /health
              port: liveness-port
              scheme: HTTP
            initialDelaySeconds: 40
            periodSeconds: 5
            successThreshold: 1


apiVersion: apps/v1
kind: Deployment
metadata:
  name: frontend
spec:
  selector:
    matchLabels:
      app: frontend
  template:
    metadata:
      labels:
        app: frontend
    spec:
      containers:
        - name: frontend
          image: registry.cn-beijing.aliyuncs.com/ahas_demo/frontend:async-test
          imagePullPolicy: Always
          ports:
            - name: liveness-port
              containerPort: 8080
              protocol: TCP
          env:
            - name: dubbo.registry.address
              value: "nacos://nacos-server:8848"
            - name: spring.cloud.nacos.discovery.server-addr
              value: "nacos-server:8848"
            - name: spring.cloud.nacos.config.server-addr
              value: "nacos-server:8848"
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m
              memory: 128Mi
          livenessProbe:
            failureThreshold: 3
            httpGet:
              path: /health
              port: liveness-port
              scheme: HTTP
            initialDelaySeconds: 5
            periodSeconds: 10
            successThreshold: 1
            timeoutSeconds: 1
          startupProbe:
            failureThreshold: 3
            httpGet:
              path: /health
              port: liveness-port
              scheme: HTTP
            initialDelaySeconds: 60
            periodSeconds: 5

            successThreshold: 1

apiVersion: v1
kind: Service
metadata:
  name: frontend
spec:
  type: ClusterIP
  selector:
    app: frontend
  ports:
    - name: http
      port: 8080

      targetPort: 8080

apiVersion: v1
kind: Service
metadata:
  name: frontend-external
spec:
  type: LoadBalancer
  selector:
    app: frontend
  ports:
    - name: http
      port: 8080
      targetPort: 8080

在左侧导航栏,单击无状态。
在无状态页面,等待几分钟,单击刷新,容器组数量全部为1/1之后,表示应用部署完成。
注意 :

如果出现某服务无法正常启动的情况,您只需单击目标服务右侧操作列表下的更多>重新部署即可。如果遇到frontend无法正常启动的情况,此时您需要先将checkoutservice重新部署后,再将frontend重新部署即可。

在无状态页面,单击frontend。

在frontend服务页面,单击访问方式页签。

在frontend服务的访问方式页签,单击frontend-external服务的外部端点。

若返回如下页面,表示应用部署成功。

在商品概览页面,单击任意商品,例如Air Jordan Legacy 312。

在商品详情页面,单击添加购物车。

在购物车页面,单击确认订单。

若返回如下页面,表示订单支付成功。

回到容器服务控制台页面,单击左侧导航栏上方的 图标。

在集群列表页面的左侧导航栏中,单击应用目录。

在应用目录页面,单击ack-ahas-pilot。

在ack-ahas-pilot的详情页面,单击创建。

返回如下页面,表示探针已经部署完成。

复制应用高可用服务控制台地址,在Firefox浏览器打开新页签,粘贴并访问容器服务应用高可用服务控制台。
https://chaos.console.aliyun.com/
在概览页面顶部,选择资源所在地域。例如下图中,地域切换为华东1(杭州)。

在左侧导航栏,单击故障演练>架构感知。

在架构地图页面,单击Kubernetes监控视图卡片中的查看视图。

在架构地图页面,打开Kubernetes监控视图下拉列表,选择命令空间为default,然后单击确定即可查看实验资源的Kubernetes监控视图。

在分布式系统设计中有一种容错策略是故障恢复(failback),通过健康检查等机制,能在机器或者应用出现问题时自动的进行重新部署。我们利用Chaos进行故障演练,测试我们的系统是否具有这样的能力

进行稳态假设。定义一个稳态指标,来评估系统的健康状态并且在实施混沌过程当中进行监控和处理。
我们将稳态定义为 能访问我们的frontend界面,并正常使用各种购物车、下单等功能。

模拟真实事件。
2.1 切换回应用高可用服务控制台。在左侧导航栏中,单击我的空间。

2.2 在我的空间页面,在新建演练下拉列表中单击新建空白演练。

2.3 在演练配置页面,完成以下操作:

(1)设置演练名称。

(2)在演练对象配置向导中,演练应用选择frontend,应用分组选择frontend-group,机器列表选择任意一台机器,单击添加演练内容。

(3)在选择演练故障对话框中,选择JAVA应用>延迟>容器内Java延迟,单击确定。

(4)在演练配置页面,单击容器内Java延迟。

(5)在容器内Java延迟面板中,依次输入类的全限定名、方法名、进程关键字和目标容器名称,单击关闭。

类的全限定名:输入com.alibabacloud.hipstershop.web.HealthController。
方法名:输入health。
进程关键字:输入java。
目标容器名称:选择frontend。

(6)在演练内容区域中,单击保存。

(7)单击下一步。

(8)在全局配置的监控策略区域,单击新增策略。

(9)在新增策略对话框中,选择业务监控>业务状态观察(Http),单击确定。

(10)在业务状态观察(Http)面板中,请求类型选择get,URL输入http://&lt;frontend的外部端点>/。

说明 :

frontend的外部端点在容器服务ACK控制台frontend服务的访问方式页签中获取。

(11)在全局配置配置向导中,单击下一步。

(12)在成功对话框中,单击演练详情。

2.4 在演练详情页面,单击演练。

2.5 在开始执行演练对话框中,单击确认。

检测实验影响。
3.1 在演练记录详情页面,查看业务状态观测(Http)时序图。您可以看到health接口的调用在遇到故障之后,先降低,然后马上自动恢复至正常状态,说明我们的设计奏效了。

3.2 切换回容器服务ACK控制台,在frontend服务页面,单击事件页签。

您可以看到frontend自动的进行了扩容。

终止实验。
4.1 切换回应用高可用服务控制台。在演练记录详情页面中,单击终止。

4.2 在停止演练对话框中,单击确定。

4.3 等待演练场景终止之后,在结果反馈对话框中,单击确定。

在微服务架构中,各个服务之间存在许多依赖关系。但是当一个不重要的弱依赖宕机时,一个健壮的系统应该仍然能够正常的运行。我们利用Chaos进行故障演练,测试我们的系统处理强弱依赖的能力如何。

进行稳态假设。
1.1 切换回容器服务ACK控制台,单击frontend的外部端点。

 1.2 在Hipster Shop页面,多次刷新页面。您可以看到页面商品的排序每一次都不一样。您可以理解为商品推荐服务会根据个性化进行推荐,使产品存在优先级。因此我们将稳态定义为,每次刷新页面,商品的排序不同。

模拟真实事件。
2.1 切换回应用高可用服务控制台。在左侧导航栏,单击我的空间。

2.2 在我的空间页面,在新建演练下拉列表中单击新建空白演练。

2.3 在演练配置页面,完成以下操作:

(1)设置演练名称。

(2)在演练对象配置向导中,演练应用选择recommendationservice,应用分组选择recommendationservice-group,机器列表选择机器,单击添加演练内容。

(3)在选择演练故障对话框中,选择JAVA应用>延迟>容器内Java延迟,单击确定。

(4)在演练内容区域中,单击容器内Java延迟。

(5)在容器内Java延迟面板中,依次输入类的全限定名、方法名、进程关键字和目标容器名称,单击关闭。

类的全限定名:输入com.alibabacloud.hipstershop.recomendationservice.service.RecommendationServiceImpl。
方法名:输入sortProduct。
进程关键字:输入java。
目标容器名称:选择recommendationservice。

(6)在演练对象中,单击保存。

(7)单击下一步。

(8)在全局配置中,单击下一步。

(9)在成功对话框中,单击演练详情。

2.4 在演练详情页面,单击演练。

2.5 在开始执行演练对话框中,单击确认。

检测实验影响。
3.1 切换回容器服务ACK控制台。在无状态页面,单击frontend。

3.2 在frontend页面,单击访问方式页签,然后单击frontend的外部端点。

3.3 在Hipster Shop页面,多次刷新页面。您可以发现每次刷新,产品顺序不会改变。说明推荐服务宕机,但并没有影响别的服务。

终止实验。
4.1 切换至应用高可用服务控制台,在演练记录详情页面,单击终止。

4.2 在停止演练对话框中,单击确定。

4.3 在结果反馈对话框中,单击确定。

在微服务架构中,一个大系统被拆分成多个小服务,小服务之间存在大量RPC调用,经常可能因为网络抖动等原因导致RPC调用失败,这时候使用重试机制可以提高请求的最终成功率,减少故障影响,让系统运行更稳定。我们通过利用Chaos,给系统注入失败,看看系统失败重试的性能如何。

进行稳态假设。
1.1 切换回容器服务ACK控制台,在无状态页面,单击cartservice。

1.2 在cartservice页面,单击伸缩。

1.3 在伸缩对话框中,将所需容器组数量更改为2,单击确定。

待状态变为Running,表示容器组扩容成功。

1.4 切换至Hispter Shop页面,单击购物车。

返回如下页面,表示购物车服务正常。因此我们将稳态定义为,能够正常使用frontend的购物车功能。

模拟真实事件。
2.1 切换回应用高可用服务控制台,在左侧导航栏,单击我的空间。

2.2 在我的空间页面,在新建演练下拉列表中单击新建空白演练。

2.3 在演练配置页面,完成以下操作:

(1)设置演练名称。

(2)在演练对象中,演练应用选择cartservice,应用分组选择cartservice-group,机器列表选择任意一台机器,单击添加演练内容。

(3)在选择演练故障对话框中, 选择JAVA应用>抛异常>容器内Java延迟抛出自定义异常,单击确定。

(4)在演练内容区域中,单击容器内Java延迟抛出自定义异常。

(5)在容器内Java延迟抛出自定义异常面板中,依次输入方法名、类的全限定名、异常、进程关键字和目标容器名称,单击关闭。

方法名:输入viewCart。
类的全限定名:输入com.alibabacloud.hipstershop.cartserviceprovider.service.CartServiceImpl。
异常:输入java.lang.Exception。
进程关键字:输入java。
目标容器名称:选择cartservice。

(6)在演练对象中,单击保存。

(7)单击下一步。

(8)在全局配置中,单击下一步。

(9)在成功对话框中,单击演练详情。

2.4 在演练详情页面,单击演练。

2.5 在开始执行演练对话框中,单击确认。

检测实验影响。
3.1 切换至Hispter Shop页面,单击购物车。

返回如下页面,您发现无法访问购物车。这是因为流量并没有切换到没有宕机的那台机器,同时 说明我们的系统并没有失败重试的能力,或者是一开始就没有设计,或者是没有生效。通过这次故障注入,我们发现了系统的缺陷。

3.2 切换至应用高可用服务控制台,在演练记录详情页面,单击终止。

3.3 在停止演练对话框中,单击确定。

3.4 在结果反馈对话框中,单击确定。

返回如下页面,表示演练结束。

在体验了上述三个场景演练之后,我们对混沌工程有了初步的了解,也掌握了应用高可用服务的基本功能。但是这样手动部署参数的过程还是比较繁琐的。接下来我们体验一下更为方便快捷的强弱依赖治理。

切换至应用高可用服务控制台。在左侧导航栏中,单击微服务演练。

并选择强弱依赖治理页面。

在强弱依赖治理页面中,单击创建治理方案。

在创建治理方案的配置向导页面,完成以下操作。
3.1 在应用接入中,自定义方案名称,治理应用选择frontend,单击下一步。

3.2 在强弱依赖治理以30天为治理周期对话框中,单击确认。

3.3 在依赖分析中,等待分析完成,单击下一步。

3.4 在依赖预判中,自行选择依赖对象的强弱依赖预判,例如nacos-standalone和checkoutservice的强弱依赖预判可选择强依赖,其他依赖对象默认弱依赖,然后单击下一步。

3.5 在依赖验证中,选择任意用例进行验证。例如选择frontend与nacos-standalone强弱依赖验证用例,单击去验证。

3.6 在去验证前的参数确认对话框中,单击确定验证。

注意:

如果窗口没有跳转,请注意跳转是否被拦截,请手动解除

在演练详情页面中,单击演练。

在开始执行演练对话框中,单击确认。

切换至Hipster Shop页面,单击网页的任意功能。您可以发现Hipster Shop网页和相关功能均可以正常访问,说明frontend服务与nacos-standalone服务是弱依赖关系。
切换至应用高可用服务控制台,在演练记录详情页面,单击终止。

在停止演练对话框中,单击确定。

在结果反馈对话框中,结论选择不符合预期,验证结果选择弱依赖,单击确定,返回强弱依赖治理。命令运行结果如下所示:

上一篇:《精通自动化测试框架设计》—第1章 1.3节五天太久,还能压缩吗


下一篇:第四期:零基础容器技术实战