ceph 17版本:使用cephadm部署17.2版本的单节点集群
文章目录
- 前言
- 一、环境版本信息
- 二、基础环境部署
- 1.服务器准备
- 2.配置DNS
- 3.安装时间服务
- 4.关闭防火墙
- 5.安装docker服务
- 5.安装lvm服务
- 二、ceph部署
- 1.安装cephadm
- 2.执行bootstrap
- 3.安装客户端软件
- 3.增加osd
- 4.创建存储池
- 5.查看集群状态
- 三、移除方式
- 总结
前言
ceph17.2.0版本的单节点集群部署记录
一、环境版本信息
- cephadm版本:17.2.0-0ubuntu0.22.04.2
- ceph版本:17.2.0
- 操作系统版本:Ubuntu 22.04.1 LTS
- 网络:192.168.150.0/24
- ip:192.168.150.37
二、基础环境部署
1.服务器准备
准备了一台虚拟机,挂载了3块20GB的盘作为osd介质
sda 8:0 0 20G 0 disk
├─sda1 8:1 0 1M 0 part
├─sda2 8:2 0 1.8G 0 part /boot
└─sda3 8:3 0 18.2G 0 part
└─ubuntu--vg-ubuntu--lv 253:0 0 10G 0 lvm /
sdb 8:16 0 20G 0 disk
sdc 8:32 0 20G 0 disk
sdd 8:48 0 20G 0 disk
2.配置DNS
cat >> /etc/systemd/resolved.conf << EOF
DNS=8.8.8.8 114.114.114.114
EOF
systemctl restart systemd-resolved.service
3.安装时间服务
sudo apt install -y chrony && sudo systemctl enable --now chronyd
4.关闭防火墙
systemctl stop ufw
systemctl disable ufw
5.安装docker服务
sudo apt-get purge docker-ce docker-ce-cli containerd.io
sudo rm -rf /var/lib/docker
sudo apt-get update
sudo apt-get -y install apt-transport-https ca-certificates curl gnupg-agent software-properties-common
curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | apt-key add -
add-apt-repository "deb [arch=amd64] https://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable"
sudo apt-get -y update
sudo apt-get -y install docker-ce docker-ce-cli containerd.io
systemctl status docker
5.安装lvm服务
apt install lvm2 -y
二、ceph部署
1.安装cephadm
sudo apt install -y cephadm
cephadm is already the newest version (17.2.0-0ubuntu0.22.04.2)
2.执行bootstrap
cephadm bootstrap --mon-ip 192.168.150.37 --cluster-network 192.168.150.0/24 --single-host-defaults
3.安装客户端软件
apt install ceph-common
ceph orch apply mon 1
ceph orch apply mgr 1
ceph orch ls
NAME PORTS RUNNING REFRESHED AGE PLACEMENT
alertmanager ?:9093,9094 1/1 9m ago 34m count:1
crash 1/1 9m ago 34m *
grafana ?:3000 1/1 9m ago 34m count:1
mgr 2/1 9m ago 3s count:1
mon 1/1 9m ago 4s count:1
node-exporter ?:9100 1/1 9m ago 34m *
prometheus ?:9095 1/1 9m ago 34m count:1
3.增加osd
ceph orch apply osd --all-available-devices
ceph osd status
ID HOST USED AVAIL WR OPS WR DATA RD OPS RD DATA STATE
0 ceph01 22.5M 19.9G 0 0 0 0 exists,up
1 ceph01 22.5M 19.9G 0 0 0 0 exists,up
2 ceph01 19.4M 19.9G 0 0 0 0 exists,up
4.创建存储池
ceph osd pool create test 64 64
ceph osd pool ls
.mgr
test
5.查看集群状态
ceph -s
ceph -s
cluster:
id: 672a7e5a-9642-11ed-b356-c34fd8a37286
health: HEALTH_OK
services:
mon: 1 daemons, quorum ceph01 (age 38m)
mgr: ceph01.nokwhs(active, since 34m)
osd: 3 osds: 3 up (since 119s), 3 in (since 2m)
data:
pools: 2 pools, 65 pgs
objects: 2 objects, 577 KiB
usage: 64 MiB used, 60 GiB / 60 GiB avail
pgs: 65 active+clean
三、移除方式
当部署异常的时候,可以使用下面的命令删除掉集群信息重新部署
ceph orch pause
ceph fsid
cephadm rm-cluster --force --zap-osds --fsid <fsid>
总结
简单整理了一下,供以后部署时参考
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)