Ceph和Openstack的cinder模块对接方法

1.创建存储池

在ceph节点中执行如下语句。

#ceph osd pool create volumes 

2.配置 OPENSTACK 的 CEPH 客户端

在ceph节点两次执行如下语句,两次{your-openstack-server}分别填控制节点和计算节点IP。

如果显示在控制节点和计算节点中没有ceph文件夹,则在两节点中创建对应文件夹。

#ssh {your-openstack-server} sudo tee /etc/ceph/ceph.conf < /etc/ceph/ceph.conf

3.安装 CEPH 客户端软件包

控制节点上进行librbd的 Python 绑定

#yum install python-rbd

计算节点和控制节点进行安装 Python 绑定和客户端命令行工具

#yum install ceph-common

#yum install ceph

4.配置 CEPH 客户端认证

在ceph节点为Cinder创建新用户

#ceph auth get-or-create client.cinder mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes'

在ceph节点把 client.cinder的密钥环复制到控制节点,并更改所有权,{your-volume-server}和{your-cinder-volume-server}处填控制节点IP。

#ceph auth get-or-create client.cinder | ssh {your-volume-server} sudo tee /etc/ceph/ceph.client.cinder.keyring

#ssh {your-cinder-volume-server} sudo chown cinder:cinder /etc/ceph/ceph.client.cinder.keyring 

在ceph节点执行如下语句{your-nova-compute-server}为计算节点IP。

#ceph auth get-or-create client.cinder | ssh {your-nova-compute-server} sudo tee /etc/ceph/ceph.client.cinder.keyring

在ceph节点把client.cinder用户的密钥存进libvirt。libvirt 进程从 Cinder 挂载块设备时要用它访问集群,在运行 nova-compute 的节点上创建一个密钥的临时副本。

{your-compute-node}为计算节点IP。

#ceph auth get-key client.cinder | ssh {your-compute-node} tee  /etc/ceph/client.cinder.key
 

在计算节点上执行如下语句,把密钥加进 libvirt 、然后删除临时副本。

#uuidgen

记录下产生的数字,将下面的UUIDGEN替换为该数字,并在计算节点执行下列语句

cat > secret.xml <<EOF

<secret ephemeral='no' private='no'>

  <uuid>UUIDGEN</uuid>

  <usage type='ceph'>

        <name>client.cinder secret</name>

  </usage>

</secret>

EOF
#sudo virsh secret-define --file secret.xml

#sudo virsh secret-set-value --secret 457eb676-33da-42ec-9a8c-9293d545c337 --base64 $(cat client.cinder.key) && rm client.cinder.key secret.xml

执行完后,记录好上面产生的uuidgen,下面还会用到。

5.安装并配置控制节点

5.1先决条件

在控制节点完成下面的步骤以创建数据库:

用数据库连接客户端以 root 用户连接到数据库服务器:

#mysql -u root -p

创建cinde数据库

#CREATE DATABASE cinder;

配置 cinder 数据库的访问权限,下列CINDER_DBPASS用合适的密码替换。

#GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'localhost' \

  IDENTIFIED BY 'CINDER_DBPASS';

#GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'%' \

  IDENTIFIED BY 'CINDER_DBPASS';

退出数据库。

获得 admin 凭证来获取只有管理员能执行的命令的访问权限:

# . admin-openrc

创建服务证书:

创建一个 cinder 用户:

#openstack user create --domain default --password-prompt cinder

添加 admin 角色到 cinder 用户上。

#openstack role add --project service --user cinder admin

创建 cinder 和 cinderv2 服务实体:

#openstack service create --name cinder \

  --description "OpenStack Block Storage" volume

#openstack service create --name cinderv2 \

  --description "OpenStack Block Storage" volumev2

创建块设备存储服务的 API 入口点:

#openstack endpoint create --region RegionOne \

  volume public http://controller:8776/v1/%\(tenant_id\)s

#openstack endpoint create --region RegionOne \

  volume internal http://controller:8776/v1/%\(tenant_id\)s

#openstack endpoint create --region RegionOne \

  volume admin http://controller:8776/v1/%\(tenant_id\)s

#openstack endpoint create --region RegionOne \

  volumev2 public http://controller:8776/v2/%\(tenant_id\)s

#openstack endpoint create --region RegionOne \

  volumev2 internal http://controller:8776/v2/%\(tenant_id\)s

#openstack endpoint create --region RegionOne \

  volumev2 admin http://controller:8776/v2/%\(tenant_id\)s

5.2安装并配置组件

安装软件包

# yum install openstack-cinder

#yum install openstack-cinder targetcli python-keystone

在控制节点上编辑cinder.conf。

#vi /etc/cinder/cinder.conf

添加如下内容:

注意:
1.如果你为 cinder 配置了多后端, [DEFAULT] 节中必须有 glance_api_version = 2

2.[ceph]中的rbd_secret_uuid后面对应填的刚刚记录的uuid。

[DEFAULT]

transport_url = rabbit://openstack:RABBIT_PASS@controller

auth_strategy = keystone

my_ip = 控制节点管理网络的IP

enabled_backends = ceph

glance_api_servers = http://controller:9292

[database]

connection = mysql+pymysql://cinder:CINDER_PASS@controller/cinder

[keystone_authtoken]

auth_uri = http://controller:5000

auth_url = http://controller:35357

memcached_servers = controller:

auth_type = password

project_domain_name = default

user_domain_name = default

project_name = service

username = cinder

password = CINDER_PASS

[oslo_concurrency]

lock_path = /var/lib/cinder/tmp

[ceph]

volume_driver = cinder.volume.drivers.rbd.RBDDriver

rbd_pool = volumes

rbd_ceph_conf = /etc/ceph/ceph.conf

rbd_flatten_volume_from_snapshot = false

rbd_max_clone_depth = 

rbd_store_chunk_size = 

rados_connect_timeout = -

glance_api_version = 

rbd_user = cinder

rbd_secret_uuid = a852df2b-55e1-4c1b-9fa2-61e77feaf30f

编辑/etc/nova/nova.conf 添加如下内容:

[cinder]

os_region_name = RegionOne

6.重启 OPENSTACK

在控制节点重启计算API 服务:

# systemctl restart openstack-nova-api.service

启动块设备存储服务,并将其配置为开机自启:

# systemctl enable openstack-cinder-api.service openstack-cinder-scheduler.service

# systemctl start openstack-cinder-api.service openstack-cinder-scheduler.service

启动块存储卷服务及其依赖的服务,并将其配置为随系统启动:

# systemctl enable openstack-cinder-volume.service target.service

# systemctl start openstack-cinder-volume.service target.service

7.验证

在控制节点获得 admin 凭证来获取只有管理员能执行的命令的访问权限:

# . admin-openrc

列出服务组件以验证是否每个进程都成功启动:

# cinder service-list

并且登录界面后可以创建卷

Ceph和Openstack的cinder模块对接方法

上一篇:多线程(2)


下一篇:Linux From Scratch(LFS11.0)构建 LFS 系统 - Sed-4.8