ubuntu 22.04部署quincy版ceph

2023-05-16

ceph集群安装配置有多种方式,下方cephadm方式是借助容器部署。

cephadm从ceph的octopus版本开始支持。安装需要主机配置安装了容器和python 3。

配置安排:

ceph版本:quincy

主机系统:ubuntu 22.04

docker版本:20.10

ceph-mon

ceph-mgr

ceph-osd

ceph100

√,vdb

ceph101

√,vdb

ceph102

×

√,vdb

安装:

1、环境准备

修改hostname,关闭防火墙,并在主机ceph100 hosts文件中将3台主机信息写入。

hostnamectl set-hostname ceph100
systemctl stop ufw
cat >> /etc/hosts <<EOF
192.168.209.100 ceph100
192.168.209.101 ceph101
192.168.209.102 ceph102
EOF

安装docker,3台主机均需安装

安装python3,ubuntu 22.04自带

安装lvm2

apt install lvm2 -y

2、安装cephadm并初始化单节点集群(主机ceph100上执行)

wget https://mirrors.aliyun.com/ceph/debian-17.2.4/pool/main/c/ceph/cephadm_17.2.4-1focal_amd64.deb
dpkg -i cephadm_17.2.4-1focal_amd64.deb
cephadm bootstrap --mon-ip 192.168.209.100 --cluster-network 192.168.209.0/24 --allow-fqdn-hostname

上方配置初始化完成后,节点上会运行mon、mgr进程,但不包含osd。
会在主机ceph100上新建/etc/ceph目录,目录会有如下文件。

root@ceph100:~# ls -al /etc/ceph/
-rw-------   1 root root   151 11月  9 10:14 ceph.client.admin.keyring
-rw-r--r--   1 root root   289 11月  9 10:47 ceph.conf
-rw-r--r--   1 root root   595 11月  9 10:07 ceph.pub

配置初始化完成后,可以使用浏览器访问https://192.168.209.100:8443访问dashboard。对应登录用户名密码会在初始化完成后打印到屏幕,如果忘记了可以使用下方命令重置。

# 密码预先放在test.txt文件中
ceph dashboard set-login-credentials admin -i ./test.txt

 3、添加节点,实现高可用(主机ceph100上执行)

ssh-copy-id -f -i /etc/ceph/ceph.pub ceph101
ssh-copy-id -f -i /etc/ceph/ceph.pub ceph102
# 安装ceph工具包,包括ceph、rbd、mount
apt install ceph-common
ceph orch host add ceph101
ceph orch host add ceph102

注:

以实验环境为例,添加节点完成后会在3台主机都安装mon、crash和node-exporter,按添加节点操作顺序的前2台安装mgr,初始化第1台节点安装1个altermanager、grafana、prometheus。cephadm预设是5个mon服务、2个mgr服务、3个crash和node-exporter、1个altermanager、prometheus和grafana。

root@ceph100:~# ceph orch ls
NAME           PORTS        RUNNING  REFRESHED  AGE  PLACEMENT
alertmanager   ?:9093,9094      1/1  6m ago     3h   count:1
crash                           3/3  6m ago     3h   *
grafana        ?:3000           1/1  6m ago     3h   count:1
mgr                             2/2  6m ago     3h   count:2
mon                             3/5  6m ago     2s   count:3
node-exporter  ?:9100           3/3  6m ago     3h   *
prometheus     ?:9095           1/1  6m ago     3h   count:1

# 调整mon预设数量,同理其它组件也可以
root@ceph100:~# ceph orch apply mon 3

# 关闭mon自动部署,同理其它组件也可以
# 配合下方指定节点上部署mon可实现指定节点安装mon组件
root@ceph100:~# ceph orch apply mon --unmanaged

# 指定节点上部署mon,同理其它组件也可以
# 可用于添加新节点
root@ceph100:~# ceph orch apply mon "ceph100,ceph101,ceph102"

# 指定节点上删除mon,同理其它组件也可以
# --force参数会强制删除指定节点上的mon服务
# 可用于剔除节点
root@ceph100:~# ceph orch daemon rm mon.ceph102 --force

4、添加osd(仍在ceph100主机上配置)
这里添加的节点的硬盘不能做过分区和文件系统。
容量要大于5GB。

ceph orch apply osd --all-available-devices
ceph orch device ls
ceph orch daemon add osd ceph100:/dev/sdb
ceph orch daemon add osd ceph101:/dev/sdb
ceph orch daemon add osd ceph102:/dev/sdb

# 删除指定osd磁盘
# 先获取要删除的osd磁盘id,也就是第一列ID对应的数字
ceph osd tree
# 其次下线对应id磁盘,并停止对应id磁盘的osd进程
ceph osd stop 2 
ceph osd out 2
# 然后将其从crush映射、auth认证密钥中删除
ceph osd crush rm osd.2
ceph auth del osd.2
# 最后从osd中删除
ceph osd rm 2

# 重新添加上方删除的硬盘
lsblk
dmsetup remove ceph--b82bcf74--52b9--4d61--9893--12b10a801258-osd--block--999ab762--9b86--4881--ad34--63b8b48c16a7
wipefs -af /dev/sdb
ceph orch device zap ceph100 /dev/sdb --force
ceph orch device ls
ceph orch daemon add osd ceph100:/dev/sdb

添加结果:

root@ceph100:~# ceph osd tree
ID  CLASS  WEIGHT   TYPE NAME         STATUS  REWEIGHT  PRI-AFF
-1         0.02939  root default
-7         0.00980      host ceph100
 2    hdd  0.00980          osd.2         up   1.00000  1.00000
-3         0.00980      host ceph101
 0    hdd  0.00980          osd.0         up   1.00000  1.00000
-5         0.00980      host ceph102
 1    hdd  0.00980          osd.1         up   1.00000  1.00000

5、部署完成集群情况

root@ceph100:~# ceph status
  cluster:
    id:     2895daf4-5fd3-11ed-998e-63fba36fadaf
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum ceph100,ceph101,ceph102 (age 48s)
    mgr: ceph100.xzhyib(active, since 38s), standbys: ceph101.xwosnc
    osd: 3 osds: 3 up (since 5s), 3 in (since 21s)

  data:
    pools:   1 pools, 1 pgs
    objects: 2 objects, 257 KiB
    usage:   71 MiB used, 30 GiB / 30 GiB avail
    pgs:     1 active+clean

补充:

1、cephadm方式安装的ceph集群,ceph100节点初始化集群后运行的容器介绍

 

root@ceph100:~# docker ps
CONTAINER ID   IMAGE                                     COMMAND                  CREATED       STATUS       PORTS     NAMES
71c967fbe46c   quay.io/prometheus/alertmanager:v0.23.0   "/bin/alertmanager -…"   3 hours ago   Up 3 hours             ceph-2895daf4-5fd3-11ed-998e-63fba36fadaf-alertmanager-ceph100
8a93e47c2191   quay.io/prometheus/prometheus:v2.33.4     "/bin/prometheus --c…"   3 hours ago   Up 3 hours             ceph-2895daf4-5fd3-11ed-998e-63fba36fadaf-prometheus-ceph100
47e928f19a94   quay.io/ceph/ceph                         "/usr/bin/ceph-crash…"   4 hours ago   Up 4 hours             ceph-2895daf4-5fd3-11ed-998e-63fba36fadaf-crash-ceph100
ee4eebe03d53   quay.io/ceph/ceph:v17                     "/usr/bin/ceph-mgr -…"   4 hours ago   Up 4 hours             ceph-2895daf4-5fd3-11ed-998e-63fba36fadaf-mgr-ceph100-xzhyib
5d71bcad0918   quay.io/ceph/ceph:v17                     "/usr/bin/ceph-mon -…"   4 hours ago   Up 4 hours             ceph-2895daf4-5fd3-11ed-998e-63fba36fadaf-mon-ceph100
ccd727420250   quay.io/ceph/ceph-grafana:8.3.5           "/bin/sh -c 'grafana…"   4 hours ago   Up 4 hours             ceph-2895daf4-5fd3-11ed-998e-63fba36fadaf-grafana-ceph100
e5ece9d56cfd   quay.io/prometheus/node-exporter:v1.3.1   "/bin/node_exporter …"   4 hours ago   Up 4 hours             ceph-2895daf4-5fd3-11ed-998e-63fba36fadaf-node-exporter-ceph100
  • ceph-mgr,ceph管理器
  • ceph-monitor,ceph监视器
  • ceph-crash,ceph崩溃数据收集模块
  • prometheus,prometheus监控组件
  • grafana,监控数据展示dashboard
  • alertmanager,prometheus监控告警组件
  • node_exporter,prometheus节点数据收集组件

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

ubuntu 22.04部署quincy版ceph 的相关文章

随机推荐

  • 自动化运维记录之GitLab CI/CD 自动化部署入门教程

    1 前端项目自动化部署需要的环境依赖 Node 安装项目依赖 打包都需要 Nginx web 项目部署必须 正向代理 方向代理 负载均衡等等 GitLab 也会用到 Nginx span class token punctuation sp
  • k8s-kubeadm证书过期续订解决方法

    1 实验目的 通过kubeadm安装的kubernetes集群各个组件所使用证书的期限为1年 xff0c 本实验练习的是到期之后如何续期 2 实验环境 ubernetes环境及版本 整个实验三台机器192 168 32 128作为maste
  • 宝塔部署Django项目-避坑必看

    1 在linux windoes机器上已经安装宝塔 浏览器登录宝塔管理页面 1 1打包模块 span class token number 1 span 将本地计算机的项目下的模块打包 python m pip freeze span cl
  • week11作业—A - 必做题11-1—

    题目 蒜头君从现在开始工作 xff0c 年薪 NNN 万 他希望在蒜厂附近买一套 606060 平米的房子 xff0c 现在价格是 200200200 万 假设房子价格以每年百分之 KKK 增长 xff0c 并且蒜头君未来年薪不变 xff0
  • Linux 系统 nginx 源码编译安装

    nginx版本 xff1a nginx 1 18 0 操作实施环境 Ubuntu 16 04 6 LTS SUSE Linux Enterprise Server 12 SP4 x86 64 注 xff1a 因为是源码安装 xff0c 操作
  • ubuntu18.04和20.04(ubuntu focal)安装MySQL8并使用navicat连接(详细)

    文章的第一节转载自原文连接 本文实现了服务器ubuntu18 04和虚拟机ubuntu20 04两个版本的MySQL8 的安装 xff0c 和navicat的连接 其中ubuntu18 04对应第二节 xff0c ubuntu20 04是u
  • 对接淘宝公共平台API

    1 说明 由于项目临时提出需求 xff0c 需要对接淘宝公共平台查询用户的一些信息 xff0c 所以需要和淘宝平台做对接 xff0c 我查看了一下淘宝公共平台开发文档 xff0c 虽然写的挺丰富挺整洁 xff0c 但我还是一头雾水 xff0
  • 使用IDEA插件从数据库表生成实体类

    目录 1 介绍 2 添加插件 3 创建数据库连接 4 添加数据库连接信息和驱动 5 表生成实体类 1 介绍 EasyCode是基于IntelliJ IDEA Ultimate版开发的一个代码生成插件 xff0c 主要通过自定义模板 基于ve
  • SpringBoot多环境动态环境切换(nacos)

    目录 1 环境变量切换 1 1 建立各环境配置文件 1 2 设置环境变量 2 nacos配置中心动态切换 2 1 配置文件 2 2 nacos配置 2 3 启动服务 3 同一nacos环境下服务不同环境控制 3 1 cloud方式 3 1
  • 批量插入或更新数据(MyBatis-plus框架)

    目录 1 场景说明 2 DUPLICATE 和REPLACE比较 3 批量插入或者更新 两种方式 方式一 xff1a mybatis plus的saveOrUpdateBatch方法 问题 xff1a 如果操作类集成了基础类 xff0c 比
  • SpringBoot+Nacos+OpenFeign环境搭建

    目录 1 boot方式nacos与openFeign集成 1 引入依赖 2 添加配置 3 测试接口调用 4 常见问题 xff1a 1 版本依赖 2 nacos客户端 2 cloud方式nacos与openFeign集成 1 引入依赖 2 添
  • RestTemplate连接池使用

    说明 在调用淘宝的公共平台接口时候 xff0c 响应较慢 xff0c 我们需要60ms能够获取到响应 xff0c 但是却经常是200ms甚至更长时间 xff0c 别人的接口只能够优化网络响应时间来提升接口响应 由于接口并发量发 xff0c
  • 华为云CCI方式部署服务

    1 创建工作负载 说明 xff1a 创建负载使用的是swr自己上传的镜像 工作负载的创建过程相对简单 xff0c 和CCE类似 xff0c 创建好工作负载后会自动生成服务 2 配置路由 说明 xff1a 添加路由需要指定好容器端口和服务端口
  • RocketMQ单机环境搭建测试+springboot整合

    1 资源下载 官网 xff1a 下载 RocketMQ 这里选择使用编译后可以直接用的 下载后解压 xff1a 略 2 更改配置 主要是更改 conf broker conf 的配置 xff0c 记得添加上下面这几行 xff0c 否则消息发
  • Assignment 2: Exploratory Data Analysis

    Assignment 2 Exploratory Data Analysis 在此作业中 xff0c 您将识别出感兴趣的数据集并进行探索性分析 xff0c 以更好地理解数据的形状和结构 xff0c 调查最初的问题以及发展初步的见解和假设 您
  • jsp页面不显示的问题

    明明前后端的测试都写好了 xff0c 但是就是显示不出来数据 最后的 最后 发现是在引入js的时候一个小小的疏忽浪费了我半个小时的时间 xff0c 值得记录 一下
  • mysql group by 用法解析(详细)

    group by 用法解析 group by语法可以根据给定数据列的每个成员对查询结果进行分组统计 xff0c 最终得到一个分组汇总表 SELECT子句中的列名必须为分组列或列函数 列函数对于GROUP BY子句定义的每个组各返回一个结果
  • kubectl get pod卡住的问题

    安装minikube之后 xff0c 出现了kubectl get pod卡住的问题 xff0c 我这里主要网络的问题 xff0c 因为使用代理时没有过滤本地的IP xff0c 添加上过滤IP就可以用了 export no proxy 61
  • 记录Win10+Ubuntu18.04(引导Win10启动)双系统迁移到SSD,Ubuntu迁移成功但丢失Win10启动项

    原来的Win10 43 Ubuntu双系统是先装的Win10后装Ubuntu时选择 34 与Windows系统共存 34 xff0c 如此开机后由Ubuntu启动项 紫屏 接管引导进入Ubuntu或Windows系统 看网上的教程如果不dd
  • ubuntu 22.04部署quincy版ceph

    ceph集群安装配置有多种方式 xff0c 下方cephadm方式是借助容器部署 cephadm从ceph的octopus版本开始支持 安装需要主机配置安装了容器和python 3 配置安排 xff1a ceph版本 xff1a quinc