Proxmox VE 超融合集群创建多个Ceph Pool

2023-05-16

作者:田逸(vx:formyz)

创建多Ceph Pool的目的

Proxmox VE集群上的虚拟机运行在高速磁盘NVME,而虚拟机附属的数据,则指定到低速、廉价、容量大的磁盘空间。为了高可用性,充分利用资源,需要让除Proxmox VE宿主二外的数据都运行在Ceph分布式存储上。

解决思路

把高速的NVMe(或者其它固态磁盘SSD)多磁盘做成一个Ceph Pool,大容量多磁盘组成另外一个Ceph Pool。

测试环境

  • 三台物理服务器,插入一块或NVMe磁盘(容量不等不影响使用和性能),数块SATA 低速硬盘,大致配置图所示。

 

  • 平台版本为Proxmox VE 7.0,安装好Ceph,版本为16.2.6。
  • 服务器集群已经做好,需要使用的磁盘已经全部初始化。

 

实验步骤

大致可分为:创建不同类型的Ceph OSD,创建Ceph crush rule,创建Ceph Pool,创建虚拟机及给虚拟机分配磁盘空间,功能验证等几个步骤。

创建不同类型Ceph OSD

  • 创建SATA磁盘Ceph OSD,设备类型指定为HDD。登录Proxmox VE Web管理后台,选定物理节点,创建OSD,具体操作如图所示。

 

重复这个操作,将所有剩余的空闲SATA创建好OSD待用。

  • 创建NVMe磁盘Ceph OSD,设备类型指定为NVMe,操作如下图所示。

 

重复这个步骤,将所有剩余的NVMe创建好OSD待用。

  • 验证所创建的Ceph OSD。Proxmox VE 宿主系统Debian执行命令 ceph osd tree查看,生成的Ceph OSD如下:

root@pve3:~# ceph osd tree

ID  CLASS  WEIGHT   TYPE NAME      STATUS  REWEIGHT  PRI-AFF

-1         9.18233  root default                           

-7         3.68178      host pve1                          

 0   hdd  1.81879          osd.0      up   1.00000  1.00000

 5   nvme  1.86299          osd.5      up   1.00000  1.00000

-3         2.75027      host pve2                          

 1   hdd  1.81879          osd.1      up   1.00000  1.00000

 4   nvme  0.93149          osd.4      up   1.00000  1.00000

-5         2.75027      host pve3                          

 2   hdd  1.81879          osd.2      up   1.00000  1.00000

 3   nvme  0.93149          osd.3      up   1.00000  1.00000

创建Ceph OSD Crush Rule

创建两个Ceph OSD Crush Rule,一个用于标识NVMe,另一个用于标识HDD。创建Crush规则暂时不能在Proxmox VE Web管理后台进行,需要在其宿主系统Debian命令行下手动执行,所敲的命令行如下:

ceph osd crush rule create-replicated rule-nvme default  host nvme

ceph osd crush rule create-replicated rule-hdd default  host hdd

执行完毕后,再继续执行如下指令进行验证:

root@pve3:~# ceph osd crush rule ls

replicated_rule

rule-nvme

rule-hdd

创建Ceph Pool

切换到Proxmox VE Web管理后台,选定节点,创建Ceph。这里我要创建两个Ceph Pool,把不同的OSD归类到不同的Pool中。

  1. 创建NVMe磁盘Pool。命名Pool为“NVMe_pool”,选择“Crush Rule”为“nvme-rule”,单击按钮“创建”,如下图所示:

 

  1. 创建SATA磁盘Pool。命名Pool为“HDD_pool”,选择“Crush Rule”为“hhd-rule”,单击按钮“创建”,如下图所示:

 

  1. 验证Ceph Pool的有效性。在Proxmox VE Web管理后台执行一个“卷迁移”操作,如下图所示。

 

切换到Proxmox VE宿主系统Debian命令行,执行“ceph osd pool stats”,查看其输入,如下图所示:

 

 

功能测试

在Proxmox VE集群创建虚拟机,磁盘存储指定“NVMe-pool”,如下图所示:

 

创建好虚拟机,并在其上安装操作系统,我测试用了Centos ,安装完系统以后,再给此虚拟机新增磁盘,“存储”指定“HDD-pool”,如下图所示:

 

进入虚拟机系统Centos,并把分配的磁盘创建文件系统,挂接上,手动创建一些文件或者目录。

继续在Proxmox VE Web管理后台,把虚拟机或者容器加入到高可用集群。

关闭Proxmox VE集群中刚创建并安装好系统的虚拟机所在的物理服务器,从Proxmox VE Web管理后台查看运行状态,等待节点成离线状态时,看虚拟机是否漂移?

 

经过几分钟的耐心等待,虚拟机及容器漂移到正常运行的物理节点上。

 

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Proxmox VE 超融合集群创建多个Ceph Pool 的相关文章

随机推荐

  • 解决windeployqt打包QML程序无法启动的问题

    windeployqt exe是qt自带的打包工具 xff0c 在打包qml程序时需要带上 qmldir参数 xff0c 指定qml导入符号的路径 xff0c 否则会出现无法启动的问题 windeployqt xxx exe qmldir
  • windows下如何找到占用文件或文件夹的程序

    我们在操作一个文件或文件夹时 xff0c 经常会遇到被占用的问题 xff0c 如下图 绝大部分情况下我们知道是那些程序占用 xff0c 可以直接关闭他 xff0c 但是也有很多时候我们不知道是哪个程序占用的 xff0c 可以用下面的方式来解
  • 正则表达式的零宽断言

    概念 断言 xff1a 就是说正则可以指明在指定的内容的前面或后面会出现满足指定规则的内容 零宽 xff1a 代表断言是一个占位符 xff0c 并不会在查找结果中输出 实例 使用的测试原文如下 xff1a lt w t gt 测试1 lt
  • 如何在Qt中使用zlib

    前言 环境 xff1a qt5 9 9 zlib1 2 1 windows10 QtCreator4 11 0 本文介绍了在Qt中使用zlib的方式 使用的场景是在上位机软件中使用解压缩功能 点击此处下载本文完整的示例代码 问题 比较麻烦的
  • 如何在程序中解析获取word文档(docx格式)的文本内容

    原理 docx格式的word文档其实是一个压缩包 xff0c 文本内容 格式 图片等是分别存储在不同的文件中的 xff0c office通过这些文件还原出我们所看到的word文档 下面以一个简单的示例来说明docx格式 示例 首先我们新建一
  • QFormLayout布局该什么时候使用

    概述 QFormLayout是一种支持两列的格子布局方式 xff0c 左列是标签 xff0c 右列是窗口部件 可以方便且快速的实现标签和输入组件的组合 xff0c 如下图 示例 像上面的例子 xff0c 使用QGridLayout 栅格布局
  • Qt判断文件类型 QMimeType

    前言 通常来说我们判断一个文件的类型是根据后缀名称来的 xff0c 例如 xff1a txt是文本文件 exe是二进制文件可执行程序 在程序中需要预设后缀名称 xff0c 有些时候不太容易把属于某类文件的后缀名写全 比如说图片类型的文件 x
  • 在qmake中定义子项目的编译顺序(依赖关系)

    背景 当一个大项目中包含多个子项目时 xff0c 往往子项目之间有依赖关系 xff0c 这时需要在pro文件中指明子项目的编译顺序 xff0c 否则编译整个项目的时候可能会失败 实现 现有项目一名称为Porject1 xff0c 包含三个子
  • lua面向对象-----继承的实现

    前言 在lua里是没有类的概念的 xff0c 但是可以利用表 xff08 table xff09 和元表特性来实现面向对象和继承 lua的表类似于一个对象 xff0c 每个对象都有自己的方法和属性 当访问一个表中不存在的属性时 xff0c
  • 使用Qt实现阿里云API签名

    最近需要使用阿里云API来访问物联网平台 xff0c 但是阿里官方的C 43 43 版API有些复杂而且编译有些问题 xff0c 所以决定自己来实现 xff0c 这里主要就是要解决签名的问题 xff0c 下面把签名实现的部分分享一下 使用示
  • Ubuntu下dpkg安装软件遇到包依赖问题的处理方法

    在Ubuntu环境下通过dpkg命令安装deb包时 xff0c 如果遇到包依赖问题 xff0c 如 sudo dpkg i xxx deb Reading database 227173 files and directories curr
  • proxmox VE备份优化手记--两次优化,大幅度提高性能

    问题描述 某项目由两套proxmox组成 xff0c 一套运行所有的应用程序 xff0c 一台运行mysql数据库 为了保险起见 xff0c proxmox外挂共享存储 xff0c 夜间对所有的虚拟机进行自动备份 备份是用的一台4U服务器
  • 开源超融合私有云神器proxmox VE

    Prxomox VE由位于奥地利维也纳的Proxmox Server Solutions GmbH开发 xff0c 这让人有点意外 其实欧洲在IT技术方面 xff0c 还是很强的 xff0c 比如大名鼎鼎的mysql xff0c 出自瑞典
  • Proxmox VE 桌面虚拟化(windows 10)集群尝试

    一家小型企业 内部有几台服务器 办公电脑40几台 这些服务器都是单点 经历过一次财务服务器损坏 好几周都不能开展业务的惨痛教训 正对这种问题 可采用proxmox超融合集群来解决业务高可用问题 但考虑到它的业务服务器数量不多 用超融合集群专
  • Promox VE日常维护

    Promox VE超融合私有云部署并用于生产系统以后 并不能一劳永逸 这仅仅是万里长征走完了第一步 虽然超融合私有云本身提供了非常高的可用性 但并不保证整个系统在运行中不会整体崩溃 因此 好的系统加上好的维护 才是正途 Promox VE超
  • PBS(proxmox backup server)尝鲜记

    作者 xff1a 田逸 xff08 vx xff1a formyz xff0c mail xff1a sery 64 163 com xff09 终于等到pbs发布正式版本pbs 1 0 迫不及待去官网下载好proxmox backup s
  • 打造炫酷的Proxmox VE 监控界面

    打造炫酷的Proxmox VE 监控界面 今天终于把Proxmox VE xff08 简称PVE xff09 从6 1版本升级到PVE 6 4版本 xff0c 在Web管理后台对比PVE 6 4与 PVE 6 1 xff0c 看新增哪些功能
  • Proxmox VE 多机系统备份

    作者 xff1a 田逸 在我管控的项目里 xff0c 有Proxmox VE集群 xff0c 也有些单独的PVE 我打算把集群上的虚拟机 单机PVE上的虚拟机 xff0c 都备份到同一个大容量存储 这样规划 xff0c 即能有效利用资源 x
  • Proxmox VE 超融合集群实践真传

    第1章 老司机眼中的私有云 3 1 1私有云的定义 3 1 2私有云适用场景 4 1 3私有云行业现状 6 1 4私有云技术要求 xff08 针对Proxmox VE平台 xff09 7 第2章 开源私有云神器Proxmox VE 8 2
  • Proxmox VE 超融合集群创建多个Ceph Pool

    作者 xff1a 田逸 xff08 vx formyz xff09 创建多Ceph Pool的目的 Proxmox VE集群上的虚拟机运行在高速磁盘NVME 而虚拟机附属的数据 xff0c 则指定到低速 廉价 容量大的磁盘空间 为了高可用性