DAY1 基础学习之阿里云容器服务Kubernetes版快速入门
部署并公开应用
在 Firefox ESR 输入网址https://cs.console.aliyun.com/
在容器配置页签,依次设置镜像名称、镜像Tag、资源限制、所需资源和端口,单击下一步。
参数说明:
镜像名称:输入registry.cn-hangzhou.aliyuncs.com/acr-toolkit/ack-cube。
镜像Tag:单击选择镜像Tag选择镜像的版本。若不指定,默认为最新版。示例:1.0。
资源限制:设置CPU为1 Core,内存为1024 MiB。
所需资源:设置CPU为0.25 Core,内存为512 MiB。
端口:设置容器的端口,输入名称ack-cube,容器端口80。
在创建服务对话框中,设置服务的相关参数,单击创建,以通过该服务公开应用。
参数说明:
名称:输入服务的名称。示例:ack-cube-svc。
类型:选择负载均衡>公网访问>新建SLB。
服务端口:设置服务端口为80。
容器端口:设置服务端口为80。
测试应用
本步骤指导您如何通过服务(Service)来访问新部署的容器化应用。
切换回容器服务管理控制台页签。在左侧导航栏中,选择网络>服务。
在服务列表页面,找到新创建的服务(即ack-cube-svc),记录外部端点列的IP地址。
打开您本机的浏览器,在地址栏中输入并访问外部端点列的IP地址,您即可体验魔方游戏。
说明:需要在本地浏览器访问查看哦。
监控应用
本步骤指导您如何监控应用的运行状况,如CPU利用率、内存利用率、网络I/O压力等指标。
切换回容器服务管理控制台页签。在左侧导航栏中,选择运维管理>Prometheus监控。
在Prometheus监控页面,单击无状态应用监控。
在无状态应用监控页签,选择namespace为default,选择deployment为ack-cube。
您可以查看应用的资源使用情况,包括创建应用时所设置的资源阈值,所需资源(对应图中request)和资源限制(对应图中limit)。
在无状态应用监控页签,单击右侧图标>集群Pod监控
在集群Pod监控页签,选择namespace为default,选择Pod为待监控的Pod。
您可以查看单个Pod的资源使用情况。
DAY1 学习总结 容器服务Kubernetes版真实场景。容器化Demo应用。通过容器服务控制台监控应用的运行情况。
DAY2 基础学习之Docker镜像管理快速入门
搭建Docker服务
Docker 是一个开源的容器引擎,用于创建、管理和编排容器,可以轻松为任何应用创建一个轻量级、可移植、自给自足的容器。本步骤将在ECS上部署一个Docker服务,并配置DockerHub的镜像加速器。
安装docker依赖库 yum install -y yum-utils device-mapper-persistent-data lvm2
添加Docker CE的软件源信息。yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
安装Docker CE。yum makecache fast &&
yum -y install docker-ce
启动Docker服务。systemctl start docker
配置DockerHub镜像加速器 tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": ["https://registry.docker-cn.com"]
}
EOF
重启docker服务 systemctl restart docker
准备应用代码和Dockerfile
创建工作空间 mkdir -p /tmp/demo && cd /tmp/demo
在工作空间下创建HelloWorld代码文件,用来在容器环境中监听HTTP服务,输出HelloWorld字符串。
cat > /tmp/demo/main.go << EOF
package main
import (
"fmt"
"net/http"
)
func main() {
http.HandleFunc("/", func(w http.ResponseWriter, r *http.Request) {
fmt.Fprintf(w, "Hello! World\n")
})
fmt.Println("start to serve...")
http.ListenAndServe(":80", nil)
}
EOF
在工作空间下创建Dockerfile文件。
cat > /tmp/demo/Dockerfile << EOF
FROM golang:1.12-alpine
change current working dir
WORKDIR /go/src/app
copy main.go into /go/src/app
COPY . .
go build and install the app
RUN go install -v ./...
run the app by default
CMD ["app"]
EOF
本地构建镜像并运行镜像
使用docker build命令构建镜像 docker build . -t demo:v1
说明:参数.表示指定当前路径作为构建上下文,即Dockerfile所在的本地路径。参数-t demo:v1指定镜像名称和标签。
使用docker run命令运行镜像。docker run -d -p 8000:80 demo:v1
说明:参数-d设置容器运行模式为后台运行。参数-p 8000:80将容器内部使用的网络端口映射到主机上,其中8000为主机端口,80为容器内部使用端口。
使用curl工具访问容器中的HelloWorld服务。
curl localhost:8000
使用docker rm 命令删除容器
docker rm -f $(docker ps -a | grep "demo:v1" | awk '{print $1}')
创建远程镜像仓库
在之前有写过此类文章
推送镜像
执行以下命令登录到阿里云Docker Registry
docker login --username="用户名" registry.cn-hangzhou.aliyuncs.com
标记本地镜像,将其归入远程仓库
docker push registry.cn-hangzhou.aliyuncs.com/space_test/demo:v1
将本地镜像推送远程仓库
docker push registry.cn-hangzhou.aliyuncs.com/space_test/demo:v1
拉取指定版本的远程镜像
docker pull registry.cn-hangzhou.aliyuncs.com/space_test/demo:v1
运行拉取的远程镜像
docker run -d -p 8000:80 registry.cn-hangzhou.aliyuncs.com/space_test/demo:v1
访问HelloWorld服务。
curl localhost:8000
DAY2 学习收获 Dockerfile的编写和使用,使用阿里云镜像服务来分发镜像
DAY3 进阶实战之Chaos带你快速上手混沌工程
创建应用
在创建页面,复制以下代码并粘贴到模板框中,然后单击创建。
apiVersion: apps/v1
kind: Deployment
metadata:
name: nacos-server-app
spec:
selector:
matchLabels:
app: nacos-server-app
template:
metadata:
labels:
app: nacos-server-app
spec:
containers:
- name: nacos-standalone
image: registry.cn-beijing.aliyuncs.com/ahas_demo/nacos:1.0.0
ports:
- containerPort: 8848
env:
- name: PREFER_HOST_MODE
value: "hostname"
- name: MODE
value: "standalone"
resources:
limits:
cpu: 1
memory: 2048Mi
requests:
cpu: 200m
memory: 512Mi
apiVersion: v1
kind: Service
metadata:
name: nacos-server-app
spec:
type: ClusterIP
selector:
app: nacos-server-app
ports:
- name: http
port: 8848
targetPort: 8848
apiVersion: apps/v1
kind: Deployment
metadata:
name: cart-redis
spec:
selector:
matchLabels:
app: cart-redis
replicas: 1
template:
metadata:
labels:
app: cart-redis
spec:
containers:
- name: cart-redis
image: redis:alpine
imagePullPolicy: IfNotPresent
ports:
- containerPort: 6379
resources:
limits:
cpu: 1
memory: 512Mi
requests:
cpu: 200m
memory: 128Mi
apiVersion: v1
kind: Service
metadata:
labels:
app: cart-redis
name: cart-redis
spec:
ports:
- port: 6379
targetPort: 6379
selector:
app: cart-redis
apiVersion: apps/v1
kind: Deployment
metadata:
name: cartservice-app
spec:
selector:
matchLabels:
app: cartservice-app
template:
metadata:
labels:
app: cartservice-app
spec:
containers:
- name: cartservice-app
image: registry.cn-beijing.aliyuncs.com/ahas_demo/cartservice:1.0.0
imagePullPolicy: Always
env:
- name: dubbo.registry.address
value: "nacos://nacos-server-app:8848"
- name: spring.cloud.nacos.discovery.server-addr
value: "nacos-server-app:8848"
- name: spring.cloud.nacos.config.server-addr
value: "nacos-server-app:8848"
resources:
limits:
cpu: 1
memory: 512Mi
requests:
cpu: 200m
memory: 128Mi
apiVersion: apps/v1
kind: Deployment
metadata:
name: recommendation-service
spec:
selector:
matchLabels:
app: recommendation-service
template:
metadata:
labels:
app: recommendation-service
version: 1.0.0-SNAPSHOT
spec:
containers:
- name: recommendation-service
image: registry.cn-beijing.aliyuncs.com/ahas_demo/recomendationservice:1.0.0
# imagePullPolicy: Always
env:
- name: dubbo.registry.address
value: "nacos://nacos-server-app:8848"
- name: spring.cloud.nacos.discovery.server-addr
value: "nacos-server-app:8848"
- name: spring.cloud.nacos.config.server-addr
value: "nacos-server-app:8848"
resources:
limits:
cpu: 1
memory: 512Mi
requests:
cpu: 200m
memory: 128Mi
apiVersion: apps/v1
kind: Deployment
metadata:
name: product-mysql
spec:
selector:
matchLabels:
app: product-mysql
replicas: 1
strategy:
type: Recreate
template:
metadata:
labels:
app: product-mysql
spec:
containers:
- args:
- --character-set-server=utf8mb4
- --collation-server=utf8mb4_unicode_ci
env:
- name: MYSQL_DATABASE
value: product
- name: MYSQL_ROOT_PASSWORD
value: productservice
image: mysql:5.6
name: product-mysql
ports:
- containerPort: 3306
resources:
limits:
cpu: 1
memory: 512Mi
requests:
cpu: 200m
memory: 128Mi
apiVersion: v1
kind: Service
metadata:
labels:
app: product-mysql
name: product-mysql
spec:
ports:
- port: 3306
targetPort: 3306
selector:
app: product-mysql
apiVersion: apps/v1
kind: Deployment
metadata:
name: product-service
spec:
selector:
matchLabels:
app: product-service
template:
metadata:
labels:
app: product-service
version: 1.0.0-SNAPSHOT
spec:
containers:
- name: product-service
image: registry.cn-beijing.aliyuncs.com/ahas_demo/productservice:1.0.0
imagePullPolicy: Always
env:
- name: dubbo.registry.address
value: "nacos://nacos-server-app:8848"
- name: spring.cloud.nacos.discovery.server-addr
value: "nacos-server-app:8848"
- name: spring.cloud.nacos.config.server-addr
value: "nacos-server-app:8848"
resources:
limits:
cpu: 1
memory: 512Mi
requests:
cpu: 200m
memory: 128Mi
apiVersion: apps/v1
kind: Deployment
metadata:
name: checkout-mysql
spec:
selector:
matchLabels:
app: checkout-mysql
replicas: 1
strategy:
type: Recreate
template:
metadata:
labels:
app: checkout-mysql
spec:
containers:
- args:
- --character-set-server=utf8mb4
- --collation-server=utf8mb4_unicode_ci
env:
- name: MYSQL_DATABASE
value: checkout
- name: MYSQL_ROOT_PASSWORD
value: checkoutservice
image: mysql:5.6
name: checkout-mysql
ports:
- containerPort: 3306
resources:
limits:
cpu: 1
memory: 512Mi
requests:
cpu: 200m
memory: 128Mi
apiVersion: v1
kind: Service
metadata:
labels:
app: checkout-mysql
name: checkout-mysql
spec:
ports:
- port: 3306
targetPort: 3306
selector:
app: checkout-mysql
apiVersion: apps/v1
kind: Deployment
metadata:
name: checkout-service
spec:
selector:
matchLabels:
app: checkout-service
template:
metadata:
labels:
app: checkout-service
spec:
containers:
- name: checkout-service
image: registry.cn-beijing.aliyuncs.com/ahas_demo/checkoutservice:health
imagePullPolicy: Always
ports:
- name: liveness-port
containerPort: 8080
protocol: TCP
env:
- name: dubbo.registry.address
value: "nacos://nacos-server-app:8848"
- name: spring.cloud.nacos.discovery.server-addr
value: "nacos-server-app:8848"
- name: spring.cloud.nacos.config.server-addr
value: "nacos-server-app:8848"
resources:
limits:
cpu: 1
memory: 512Mi
requests:
cpu: 200m
memory: 128Mi
livenessProbe:
failureThreshold: 3
httpGet:
path: /health
port: liveness-port
scheme: HTTP
initialDelaySeconds: 5
periodSeconds: 10
successThreshold: 1
timeoutSeconds: 1
startupProbe:
failureThreshold: 3
httpGet:
path: /health
port: liveness-port
scheme: HTTP
initialDelaySeconds: 40
periodSeconds: 5
successThreshold: 1
apiVersion: apps/v1
kind: Deployment
metadata:
name: front-end
spec:
selector:
matchLabels:
app: front-end
template:
metadata:
labels:
app: front-end
spec:
containers:
- name: front-end
image: registry.cn-beijing.aliyuncs.com/ahas_demo/frontend:async-test
imagePullPolicy: Always
ports:
- name: liveness-port
containerPort: 8080
protocol: TCP
env:
- name: dubbo.registry.address
value: "nacos://nacos-server-app:8848"
- name: spring.cloud.nacos.discovery.server-addr
value: "nacos-server-app:8848"
- name: spring.cloud.nacos.config.server-addr
value: "nacos-server-app:8848"
resources:
limits:
cpu: 1
memory: 512Mi
requests:
cpu: 200m
memory: 128Mi
livenessProbe:
failureThreshold: 3
httpGet:
path: /health
port: liveness-port
scheme: HTTP
initialDelaySeconds: 5
periodSeconds: 10
successThreshold: 1
timeoutSeconds: 1
startupProbe:
failureThreshold: 3
httpGet:
path: /health
port: liveness-port
scheme: HTTP
initialDelaySeconds: 60
periodSeconds: 5
successThreshold: 1
apiVersion: v1
kind: Service
metadata:
name: front-end
spec:
type: ClusterIP
selector:
app: front-end
ports:
- name: http
port: 8080
targetPort: 8080
apiVersion: v1
kind: Service
metadata:
name: frontend-external
spec:
type: LoadBalancer
selector:
app: front-end
ports:
- name: http
port: 8080
targetPort: 8080
根据内容进行部署
安装探针
回到容器服务控制台页面,单击左侧导航栏上方的
图标
在集群列表页面的左侧导航栏中,单击应用目录
在应用目录页面,单击ack-ahas-pilot
在ack-ahas-pilot的详情页面,单击创建。
通过架构感知查看系统整体架构
在左侧导航栏,单击故障演练>架构感知
在架构地图页面,单击Kubernetes监控视图卡片中的查看视图
在架构地图页面,打开Kubernetes监控视图下拉列表,选择命令空间为default,然后单击确定即可查看实验资源的Kubernetes监控视图。
自动恢复场景演练
在分布式系统设计中有一种容错策略是故障恢复(failback),通过健康检查等机制,能在机器或者应用出现问题时自动的进行重新部署。我们利用Chaos进行故障演练,测试我们的系统是否具有这样的能力
进行稳态假设。定义一个稳态指标,来评估系统的健康状态并且在实施混沌过程当中进行监控和处理。
我们将稳态定义为 能访问我们的frontend界面,并正常使用各种购物车、下单等功能。
模拟真实事件。
2.1 切换回应用高可用服务控制台。在左侧导航栏中,单击我的空间。
2.2 在演练场景页面,单击JAVA应用并选择容器内Java延迟,然后单击创建演练。
2.3 在演练配置页面,完成以下操作:
(1)设置演练名称。
(2)在演练对象配置向导中,演练应用选择frontend,应用分组选择frontend-group,机器列表选择任意一台机器,单击添加演练内容。
(3)在演练配置页面,单击容器内Java延迟。
(4)在容器内Java延迟面板中,依次输入类的全限定名、方法名、进程关键字和目标容器名称,单击关闭。
类的全限定名:输入com.alibabacloud.hipstershop.web.HealthController。
方法名:输入health。
进程关键字:输入java。
目标容器名称:选择frontend。
(5)在演练内容区域中,单击保存。
(6)单击下一步。
(7)在全局配置的监控策略区域,单击新增策略。
(8)在新增策略对话框中,选择业务监控>业务状态观察(Http),单击确定。
(9)在业务状态观察(Http)面板中,请求类型选择get,URL输入http://<frontend的外部端点>/。
说明 :frontend的外部端点在容器服务ACK控制台frontend服务的访问方式页签中获取。
(10)在全局配置配置向导中,单击下一步。
(11)在成功对话框中,单击演练详情。
2.4 在演练详情页面,单击演练。
2.5 在开始执行演练对话框中,单击确认。
检测实验影响。
3.1 在演练记录详情页面,查看业务状态观测(Http)时序图。您可以看到health接口的调用在遇到故障之后,先降低,然后马上自动恢复至正常状态,说明我们的设计奏效了。
3.2 切换回容器服务ACK控制台,在frontend服务页面,单击事件页签。
您可以看到frontend自动的进行了扩容。
终止实验。
4.1 切换回应用高可用服务控制台。在演练记录详情页面中,单击终止。
4.2 在停止演练对话框中,单击确定。
4.3 等待演练场景终止之后,在结果反馈对话框中,单击确定。
强弱依赖场景演练
在微服务架构中,各个服务之间存在许多依赖关系。但是当一个不重要的弱依赖宕机时,一个健壮的系统应该仍然能够正常的运行。我们利用Chaos进行故障演练,测试我们的系统处理强弱依赖的能力如何。
进行稳态假设。
1.1 切换回容器服务ACK控制台,单击frontend的外部端点。
1.2 在Hipster Shop页面,多次刷新页面。您可以看到页面商品的排序每一次都不一样。您可以理解为商品推荐服务会根据个性化进行推荐,使产品存在优先级。因此我们将稳态定义为,每次刷新页面,商品的排序不同。
模拟真实事件。
2.1 切换回应用高可用服务控制台。在左侧导航栏,单击我的空间。
2.2 在演练场景页面,单击JAVA应用并选择容器内Java延迟,然后单击创建演练。
2.3 在演练配置页面,完成以下操作:
(1)设置演练名称。
(2)在演练对象配置向导中,演练应用选择recommendationservice,应用分组选择recommendationservice-group,机器列表选择机器,单击添加演练内容
(3)在演练内容区域中,单击容器内Java延迟。
(4)在容器内Java延迟面板中,依次输入类的全限定名、方法名、进程关键字和目标容器名称,单击关闭。
类的全限定名:输入com.alibabacloud.hipstershop.recomendationservice.service.RecommendationServiceImpl。
方法名:输入sortProduct。
进程关键字:输入java。
目标容器名称:选择recommendationservice。
(5)在演练对象中,单击保存。
(6)单击下一步。
(7)在全局配置中,单击下一步。
(8)在成功对话框中,单击演练详情。
2.4 在演练详情页面,单击演练。
2.5 在开始执行演练对话框中,单击确认。
检测实验影响。
3.1 切换回容器服务ACK控制台。在无状态页面,单击frontend。
3.2 在frontend页面,单击访问方式页签,然后单击frontend的外部端点
3.3 在Hipster Shop页面,多次刷新页面。您可以发现每次刷新,产品顺序不会改变。说明推荐服务宕机,但并没有影响别的服务。
终止实验。
4.1 切换至应用高可用服务控制台,在演练记录详情页面,单击终止。
4.2 在停止演练对话框中,单击确定。
4.3 在结果反馈对话框中,单击确定。
失败重试场景演练
在微服务架构中,一个大系统被拆分成多个小服务,小服务之间存在大量RPC调用,经常可能因为网络抖动等原因导致RPC调用失败,这时候使用重试机制可以提高请求的最终成功率,减少故障影响,让系统运行更稳定。我们通过利用Chaos,给系统注入失败,看看系统失败重试的性能如何。
进行稳态假设。
1.1 切换回容器服务ACK控制台,在无状态页面,单击cartservice。
1.2 在cartservice页面,单击伸缩。
1.3 在伸缩对话框中,将所需容器组数量更改为2,单击确定。
待状态变为Running,表示容器组扩容成功。
1.4 切换至Hispter Shop页面,单击购物车。
模拟真实事件。
2.1 切换回应用高可用服务控制台,在左侧导航栏,单击我的空间。
2.2 在我的空间页面,在新建演练下拉列表中单击新建空白演练。
2.3 在演练配置页面,完成以下操作:
(1)设置演练名称。
(2)在演练对象中,演练应用选择cartservice,应用分组选择cartservice-group,机器列表选择任意一台机器,单击添加演练内容。
(3)在选择演练故障对话框中, 选择JAVA应用>抛异常>容器内Java延迟抛出自定义异常,单击确定。
(4)在演练内容区域中,单击容器内Java延迟抛出自定义异常。
5)在容器内Java延迟抛出自定义异常面板中,依次输入方法名、类的全限定名、异常、进程关键字和目标容器名称,单击关闭。
方法名:输入viewCart。
类的全限定名:输入com.alibabacloud.hipstershop.cartserviceprovider.service.CartServiceImpl。
异常:输入java.lang.Exception。
进程关键字:输入java。
目标容器名称:选择cartservice。
(6)在演练对象中,单击保存。
(7)单击下一步。
(8)在全局配置中,单击下一步。
(9)在成功对话框中,单击演练详情。
2.4 在演练详情页面,单击演练。
2.5 在开始执行演练对话框中,单击确认。
检测实验影响。
3.1 切换至Hispter Shop页面,单击购物车。
3.2 切换至应用高可用服务控制台,在演练记录详情页面,单击终止。
3.3 在停止演练对话框中,单击确定。
3.4 在结果反馈对话框中,单击确定
微服务演练
在体验了上述三个场景演练之后,我们对混沌工程有了初步的了解,也掌握了应用高可用服务的基本功能。但是这样手动部署参数的过程还是比较繁琐的。接下来我们体验一下更为方便快捷的强弱依赖治理。
切换至应用高可用服务控制台。在左侧导航栏中,单击微服务演练。
并选择强弱依赖治理页面。
在强弱依赖治理页面中,单击创建治理方案。
在创建治理方案的配置向导页面,完成以下操作。
3.1 在应用接入中,自定义方案名称,治理应用选择frontend,单击下一步。
3.2 在强弱依赖治理以30天为治理周期对话框中,单击确认。
3.3 在依赖分析中,等待分析完成,单击下一步。
3.4 在依赖预判中,自行选择依赖对象的强弱依赖预判,例如nacos-standalone和checkoutservice的强弱依赖预判可选择强依赖,其他依赖对象默认弱依赖,然后单击下一步。
3.5 在依赖验证中,选择任意用例进行验证。例如选择frontend与nacos-standalone强弱依赖验证用例,单击去验证。
3.6 在去验证前的参数确认对话框中,单击确定验证。
注意:如果窗口没有跳转,请注意跳转是否被拦截,请手动解除
在演练详情页面中,单击演练。
在开始执行演练对话框中,单击确认。
切换至Hipster Shop页面,单击网页的任意功能。您可以发现Hipster Shop网页和相关功能均可以正常访问,说明frontend服务与nacos-standalone服务是弱依赖关系。
切换至应用高可用服务控制台,在演练记录详情页面,单击终止。
在停止演练对话框中,单击确定。
在结果反馈对话框中,结论选择不符合预期,验证结果选择弱依赖,单击确定,返回强弱依赖治理
在依赖验证中,您可以验证其他用例,验证完成后,单击方案归档。
在您确定要归档此方案吗对话框中,单击确认归档。
您还可以通过使用MSHA快速体验异地、同城多活容灾。动手实验室地址https://developer.aliyun.com/adc/scenario/998a993afe624e3eadcf5f8f6b791064DAY3 学习总结 通过故障演练给系统快速注入故障。通过架构感知直观地观察系统架构。通过Chaos一站式实现微服务强弱依赖治理。
DAY4 直播-使用阿里云容器服务和容器网络文件系统搭建WordPress网站
学习CNFS这里为了省打字
DA5 直播-如何保证线上应用的最佳状态,保证业务连续性
基于PTS&AHAS完成线上应用最佳状态的实践
到这里第四期冬季实战营圆满结束!!!