cephadm部署ceph-quincy版(rocky8.6)

2023-05-16

序号主机主机名系统配置备注
1

192.168.3.146

192.168.8.146

node1rocky8.6最小化安装

/sda 40g

/sdb 20g

/sdc 20g

/sdd 20g

2

192.168.3.147

192.168.8.147

node2rocky8.6最小化安装

/sda 40g

/sdb 20g

/sdc 20g

/sdd 20g

3

192.168.3.148

192.168.8.148

node3rocky8.6最小化安装

/sda 40g

/sdb 20g

/sdc 20g

/sdd 20g

1、环境准备(三台)

关闭selinux 及防火墙

sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config

systemctl disable firewalld
systemctl stop firewalld

更改yum源为阿里云

sed -e 's|^mirrorlist=|#mirrorlist=|g' \
    -e 's|^#baseurl=http://dl.rockylinux.org/$contentdir|baseurl=https://mirrors.aliyun.com/rockylinux|g' \
    -i.bak \
    /etc/yum.repos.d/Rocky-*.repo

dnf makecache

安装软件包(可选)

yum install -y wget bash-completion net-tools vim

安装epel源及ceph源

yum install -y https://mirrors.aliyun.com/epel/epel-release-latest-8.noarch.rpm

sed -i 's|^#baseurl=https://download.example/pub|baseurl=https://mirrors.aliyun.com|' /etc/yum.repos.d/epel*
sed -i 's|^metalink|#metalink|' /etc/yum.repos.d/epel*

vim /etc/yum.repos.d/ceph.repo

[ceph-norch]
name=ceph-norch
baseurl=https://mirrors.aliyun.com/ceph/rpm-quincy/el8/noarch/
enable=1
gpgcheck=0

[ceph-x86_64]
name=ceph-x86_64
baseurl=https://mirrors.aliyun.com/ceph/rpm-quincy/el8/x86_64/
enable=1
gpgcheck=0

[ceph-source]
name=ceph-source
baseurl=https://mirrors.aliyun.com/ceph/rpm-quincy/el8/SRPMS/
enable=1
gpgcheck=0

dnf makecache

在/etc/hosts 填加如下行

192.168.3.146  node1
192.168.3.147  node2
192.168.3.148  node3
192.168.8.146  node1
192.168.8.147  node2
192.168.8.148  node3

配置时间同步

dnf install -y chrony
systemctl enable --now chronyd
chronyc sources -v

配置免密登录(可选)

ssh-keygen
ssh-copy-id node1
ssh-copy-id node2
ssh-copy-id node3
for host in node1 node2 node3;do ssh root@$host date;done

安装docker

dnf -y install docker

 2、安装ceph(node1)

安装cephadm

dnf -y install cephadm
cephadm -h

初始化集群

cephadm bootstrap --mon-ip 192.168.3.146 --cluster-network 192.168.8.0/24

 集群初如化成功

sudo /usr/sbin/cephadm shell --fsid fc0ce88c-2f6d-11ed-b23c-000c293e2d96 -c /etc/ceph/ceph.conf -k /etc/ceph/ceph.client.admin.keyring

ceph -s
ceph version

也可退出容器执行

cephadm shell ceph -s

三台服务器安装 ceph-common

dnf -y install ceph-common

安装完毕后,退出容器可执行命令ceph -s

key 文件:

 cat /etc/ceph/ceph.client.admin.keyring 
[client.admin]
    key = AQDH2RljgCNXBRAAKaOpbXMB6hD9G3uVC9KRYQ==
    caps mds = "allow *"
    caps mgr = "allow *"
    caps mon = "allow *"
    caps osd = "allow *"

docker ps

 加入node2 node3

ssh-copy-id -f -i /etc/ceph/ceph.pub node2
ssh-copy-id -f -i /etc/ceph/ceph.pub node3

ceph orch host ls

ceph orch host add node2 192.168.3.147
ceph orch host add node3 192.168.3.148

ceph orch host ls

 

填加标签 

ceph orch host label add node2 _admin
ceph orch host label add node3 _admin

mon  mgr填加节点后会自动部署

web登陆查看

 填加OSD

ceph orch daemon add osd node1:/dev/sdb,/dev/sdc
ceph orch daemon add osd node2:/dev/sdb,/dev/sdc
ceph orch daemon add osd node3:/dev/sdb,/dev/sdc

 检查集群状态

ceph -s
ceph health

 

 

 

 

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

cephadm部署ceph-quincy版(rocky8.6) 的相关文章

  • 4. 在 Proxmox VE 安装Ceph

    4 在 Proxmox VE 安装 Ceph 1 安装 按图操作即可 2 参考 1 https blog csdn net ggeol article details 109112815
  • Ceph OSD为DOWN时修复

    本文所使用Ceph版本为luminous 不同版本删除OSD基本操作相同 xff09 xff0c 当出现Ceph OSD为down的情况时 xff0c 可以通过以下方法解决 xff08 假设ceph admin节点OSD 1 Down xf
  • Failed to start Ceph object storage daemon osd.14

    问题 xff1a ceph集群osd变为down的状态 xff0c 并且重启osd也一直失败 分析 xff1a root 64 shnode183 systemctl status ceph osd 64 14 ceph osd 64 14
  • ceph delete pool

    参考 xff1a Pools Ceph Documentation 前言 xff1a 网上的写的乱七八糟不是你抄我就是我抄你 写的完全瞎扯 简直看不下去 官网截图 xff1a 准备 1 查看pool名称 ceph osd lspools 创
  • Ceph部署

    1 简介 Ceph是一个高性能 可扩容的分布式存储系统 xff0c 它提供三大功能 xff1a 对象存储 xff1a 提供RESTful接口 xff0c 也提供多种编程语言绑定 兼容S3 Swift块存储 xff1a 由RBD提供 xff0
  • k8s的ceph

    ceph安装 地址 xff1a https rook io docs rook v1 8 quickstart html 特性丰富 1 xff0c 支持三种存储接口 xff1a 块存储 文件存储 对象存储 2 xff0c 支持自定义接口 x
  • Ceph文件存储-挂载文件系统

    文章目录 1 创建文件系统1 1 方法11 2 方法2 2 挂载文件系统3 卸载 1 创建文件系统 1 1 方法1 span class token number 1 span 创建存储池 ceph osd pool create tgmf
  • CentOS8联网部署Ceph-Quincy集群

    文章目录 1 环境准备1 1 关闭selinux1 2 关闭防火墙1 3 配置免密1 4 设置yum源1 5 安装依赖1 6 设置时间同步1 7 安装docker 2 安装Ceph2 1 安装cephadm2 2 部署ceph集群2 3 集
  • s3操作ceph 创建bucket 报错 命名 错误 botocore.exceptions.ClientError: An error occurred (InvalidBucketName)

    报错信息 Traceback span class token punctuation span most recent call last span class token punctuation span s3 create bucke
  • 【Ceph】1 pools have many more objects per pg than average

    公司 Ceph 集群从 v12 升级到 v14 后 今天某个 CephFS 的集群收到一个 HEALTH WARN 的告警 具体的 Warning 的信息为 1 pools have many more objects per pg tha
  • ceph pg和pgp的区别

    一 前言 首先来一段英文关于PG和PGP区别的解释 PG Placement Group PGP Placement Group for Placement purpose pg num number of placement groups
  • ceph-pg状态详解

    Creating 含义 PG正在创建 引起原因 创建pool的时候 根据指定的pg数量进行创建pg时出现的状态 正常状态 后果 无 解决方案 无需解决 正常状态之一Peering 含义 PG之间进行互联 就其中的对象和元数据状态达成一致 引
  • 【分布式】ceph存储

    目录 一 存储基础 单机存储设备 单机存储的问题 商业存储解决方案 二 分布式存储 软件定义的存储 SDS 分布式存储的类型 Ceph 优势 Ceph 架构 Ceph 核心组件 Pool中数据保存方式支持两种类型 Pool PG 和 OSD
  • sgdisk基本用法

    sgdisk基本用法 简介 sgdisk是Linux下操作GPT分区的工具 就像fdisk是操作MBR分区的工具 关于GPT和MBR的区别请参考 http www anchor com au blog 2012 10 the differe
  • Ceph集群生产环境安装部署

    前言 ceph的组件以及工作流程非常的复杂 是一个庞大的系统 在尝试ceph之前尽量多查阅官方的文档 理解ceph的mon osd mds pg pool等各组件 Unit的协同工作方式 Ceph官方文档 一 配置规划 二 部署 1 ntp
  • Linux OOM机制&线上osd异常kill

    一 引言 某日早上收到邮件告警信息 上报pg stale以及recovery信息 于是登录系统运维 二 排查 解决 登录系统后发现系统已恢复正常 按照正常来讲并无影响 但系统既已出现recovery信息意味着一定有osd down发生 于是
  • Ceph概述、准备ceph部署环境、cephadm概述、安装Ceph集群、ceph块存储、存储池、rbd镜像管理、ceph客户端配置

    day03 day03ceph概述部署Ceph节点准备cephadm准备基础环境安装ceph实现块存储块存储基础存储池镜像ceph客户端 ceph概述 ceph可以实现的存储方式 块存储 提供像普通硬盘一样的存储 为使用者提供 硬盘 文件系
  • ceph 维护系列(二)--卸载osd

    一 摘要 本文主要介绍从ceph 某台节点上卸载一块或者多块osd 硬盘 二 环境信息 2 1 操作系统版本 root proceph05 cat etc centos release CentOS Linux release 7 6 18
  • Ceph入门到精通- smartctl -l error检查硬盘指标

    smartctl l error 是一个 Linux 命令 用于查看磁盘驱动器的 SMART Self Monitoring Analysis and Reporting Technology 错误日志 SMART 是一种技术 能够监测硬盘
  • Ceph入门到精通-smartctl 查看硬盘参数

    smartctl 参数含义 Model Family Toshiba s Enterprise Capacity HDD Device Model TOSHIBA MG08ACss Serial Number sssssss LU WWN

随机推荐