PVE一些记录

2023-05-16

目录

1.简介

2.qm - Qemu/KVM 虚拟机管理器

 3.vmdk/img/raw转qcow2

4.PVE网卡直通

5.一些位置映射

6.外挂硬盘操作参考

7.查看/修改ip


1.简介

PVE是基于debian的系统,使用apt包管理工具。官方文档:https://pve.proxmox.com/pve-docs/pve-admin-guide.html#_introduction

LVM文件系统本身不需要任何特殊的硬件,内存要求也很低。选择该文件系统建议使用硬件raid控制器,这样能提高性能,提供冗余,并使磁盘更换更容易(可热插拔)。

zfs文件系统是一个综合的文件系统和逻辑卷管理器。通过使用zfs,可以在降低硬件预算下实现最大的企业功能,还可以通过利用SSD缓存甚至只设置SSD来实现高性能系统。zfs可以通过适度的cpu和内存负载以及简单的管理来取代成本紧张的raid卡。zfs严重依赖内存,至少8GB才能启动。注意:不要在具有硬件raid控制器上使用zfs。

BTRFS 是 Linux 内核原生支持的现代写入文件系统,通过数据和元数据的校验和实现快照、内置 RAID 和自我修复等功能。 从 Proxmox VE 7.0 开始,引入 BTRFS 作为根文件系统的可选选择。

因为我们使用 Proxmox 集群文件系统(pmxcfs),所以可以连接到任意节点来管理整个集群。 每个节点都可以管理整个集群。 不需要专用的管理器节点。

可以通过 https://youripaddress:8006 访问网页界面(默认登录为:root,安装过程中指定密码)。

2.qm - Qemu/KVM 虚拟机管理器

格式:qm <COMMAND> [ARGS] [OPTIONS]

(1)克隆虚拟机/模板

(2)将外部磁盘镜像为vm中未使用的磁盘。这个镜像格式必须是qemu-img支持的镜像格式(qcow2/raw/vmdk)

前提是虚拟机已经创建出来了,可以全部按默认创建一个临时的VM,比如说111,往上面挂载一个外部磁盘,可以是qcow2,可以是rar,可以是vmdk,也可以是img格式;可以指定格式,也可以不指定格式。

qm importdisk 111   xxx.vmdk   local-zfs   --format qcow2
qm importdisk 111   xxx.vmdk   local-zfs

注意:如果是ova格式,则使用tar -xvf xxx.ova进行解压,得到vmdk文件。导入成功的磁盘将其格式指定为ide格式,并且虚拟机的菜单中的选项(options)-启动项(boot order)选择需要启动的磁盘,默认没有启动项。

 (3)使用从ovf文件中读取参数来创建新的VM 

tar xvf xxx.ova 解压ova文件

命令会自动创建指定编号的虚拟机(如999),读取ovf创建;可以指定格式也,可以不指定格式。

qm importovf 999   xxx.ovf   local-zfs   --format qcow2
qm importovf 999   xxx.ovf   local-zfs

注意,如果是ova格式,则使用tar -xvf xxx.ova进行解压,得到ovf文件。创建的虚拟机的磁盘格式建议指定为ide格式,并且虚拟机的菜单中的选项(options)-启动项(boot order)选择需要启动的磁盘,默认没有启动项。

 (4)迁移虚拟机

(5)删除vm释放占用的磁盘

 (6)关闭虚拟机

 (7)开启虚拟机

(8)重启虚拟机

(9) 查看虚拟机状态

 (10)查看pve上的所有虚拟机

(11)查看某台虚拟机上的所有快照

(12)备份和还原

vzdump和qmrestore命令,具体使用可以man命令打开

 3.vmdk/img/raw转qcow2

linux系列的系统下面使用qemu-img工具,可以将vmdk、qcow2、vhdx、vdi、raw、img等格式的镜像相互转化。

tar  xvf xxx.ova  解压出来vmdk等文件。

# 检查系统是否安装该工具,如果没有,则yum -y install qemu-kvm或者apt-get install qemu-kvm
qemu-img -V
# 转换镜像的命令格式
qemu-img convert [-c] [-f fmt] [-O output_fmt] [-o options] filename [filename2 […]] output_filename

将fmt格式的filename镜像文件根据options选项转换为格式为output_fmt的名为output_filename的镜像文件。它支持不同格式的镜像文件之间的转换,比如可以用VMware用的vmdk格式文件转换为qcow2文件,这对从其他虚拟化方案转移到KVM上的用户非常有用。一般来说,输入文件格式fmt由qemu-img工具自动检测到,而输出文件格式output_fmt根据自己需要来指定,默认会被转换为raw文件格式(且默认使用稀疏文件的方式存储以节省存储空间)。 其中,“-c”参数是对输出的镜像文件进行压缩,不过只有qcow2和qcow格式的镜像文件才支持压缩,而且这种压缩是只读的,如果压缩的扇区被重写,则会被重写为未压缩的数据。如果使用qcow2、qcow、cow等作为输出文件格式来转换raw格式的镜像文件(非稀疏文件格式),镜像转换还可以起到将镜像文件转化为更小的镜像,因为它可以将空的扇区删除使之在生成的输出文件中并不存在。

# 自动检测源文件格式,只需要指定目标文件格式
qemu-img convert -O raw test.img test_convert1.raw  

# 把raw/img格式的xxx文件转成qcow2格式的yyy文件,-p参数显示process百分比进度条。
qemu-img convert -p -f raw -O qcow2 xxx.img yyy.qcow2 

# 把vmdk格式的xxx文件转成qcow2格式的yyy文件,-p参数显示process进度条。
qemu-img convert -p -f vmdk -O qcow2 xxx.vmdk yyy.qcow2 

# 自动检测xxx文件格式,并且转成指定的qcow2格式的yyy文件,-c参数表示压缩(仅对qcow2、qcow支持)。
qemu-img convert -p -c -O qcow2 xxx.vmdk yyy.qcow2 

# 其他镜像格式之间的转化参考上面即可

'''如果需要对很多文件都进行转换,则可使用shell代码来批量操作'''
for file in `ls`; 
do 
qemu-img convert -p -f vmdk -O qcow2 $file  ${file:start:length-5}.qcow2 ; 
done

windows系统下面使用StarWind V2V Image Conbverter工具

4.PVE网卡直通

由于PVE默认是不支持硬件直通的,所以在直接虚拟机上添加PCI设备的时候,即点击“硬件”-“添加”-“PCI设备”,这个时候 会出现“No IOMMU detected ,please activate it……”提示信息。

确认服务器pci网卡包含了要做直通的万兆网卡(10GE网卡),ssh登入PVE系统,运行lspci -nn | grep 10G 命令查看所有可以直通的10G网卡。

解决过程如下:

(1)服务器BIOS硬件支持直通

进入服务器的BIOS(不是虚拟机的BIOS)确认VT-d或者AMD-d之类的选项值为enable,直通模式打开。

接着进入系统shell,进行系统层面的测试:VT-d或者VT-x打开

测试VT-x:

if systool -m kvm_amd -v &> /dev/null || systool -m kvm_intel -v &> /dev/null ; then
    echo "AMD-V / VT-X is enabled in the BIOS/UEFI."
else
    echo "AMD-V / VT-X is not enabled in the BIOS/UEFI"
fi

测试VT-d:

if compgen -G "/sys/kernel/iommu_groups/*/devices/*" > /dev/null; then

    echo "AMD's IOMMU / Intel's VT-D is enabled in the BIOS/UEFI."

else

    echo "AMD's IOMMU / Intel's VT-D is not enabled in the BIOS/UEFI"

fi

 (2)修改/etc/default/grub文件

修改/etc/default/grub, 开启IOMMU

#vi /etc/default/grub

#修改变量GRUB_CMDLINE_LINUX_DEFAULT的值
GRUB_CMDLINE_LINUX_DEFAULT=quiet intel_iommu=on video=efifb:off  # 如果是Intel CPU
GRUB_CMDLINE_LINUX_DEFAULT=quiet amd_iommu=on video=efifb:off  # 如果是AMD CPU

(3)运行两条命令

update-grub
proxmox-boot-tool refresh

(4)编辑/etc/modules,编辑4行

#vi /etc/modules

# 添加下面四行
vfio
vfio_iommu_type1
vfio_pci
vfio_virqfd

(5)更新内核并重启

update-initramfs -u
reboot

(6)为VM添加PCI直通网卡硬件

选中虚拟机, 点击“硬件”-“添加”-“PCI设备”。这个时候就不会再弹出错误了。

选中需要添加到虚拟机中的直通的10GE网口,同时设置Rombar=0意思是把ROM-Bar选项取消。

(7)VM系统内可能出现的问题

问题1:看不到万兆网卡

进入虚拟机,使用ifconfig -a命令显示出的网络设备中只有一张网卡(管理网卡),即看不到直通的万兆网卡(监听网卡)。但是执行lspci -nn却可以看到直通的PCI网卡。

解决:需要手工加载ixgbe驱动,执行modprobe ixgbe命令加载系统的ixgbe驱动。这样就可以看到两张网卡。

原因分析:虚拟机启动时,有pf_ring的网卡驱动自启动,该网卡脚本驱动 load_driver.sh 会首先将系统的ixgbe驱动删除,然后加载pf_ring自己的ixgbe驱动(脚本里面执行的顺序)。但是加载pf_ring自己的ixgbe驱动失败了,系统此时就不存在任何的ixgbe驱动,也就不能识别出网卡。

问题2:需要让pf_ring的ixgbe驱动脚本开机自启动加载成功。

我们尝试手动加载pf_ring的ixgbe网卡驱动脚本load_driver.sh,发现报错了。

原因:从报错信息来看, 网上查找得到根本原因是虚拟机的bios设置,也正是这个原因导致开机自启动失败。

解决方法:虚拟机操作系统启动的时候,要进去System setup,进行bios设置,把current secure boot state改为disabled(默认是enabled),虚拟机重启之后,就可以发现万兆网卡是能看到了,不需要手动加载驱动。

5.一些位置映射

(1)zfs系统:

web界面-local-iso镜像/var/lib/vz/template/iso/
web界面-local-备份/var/lib/vz/dump/
web界面-local-CT模板/var/lib/vz/template/cache/

(2)lvm系统

web界面-local-iso镜像/var/lib/vz/template/iso/
web界面-local-备份/var/lib/vz/dump/
web界面-local-CT模板/var/lib/vz/template/cache/

(3)btrfs系统

web界面-local-iso镜像/var/lib/pve/local-btrfs/template/iso/
web界面-local-备份/var/lib/pve/local-btrfs/dump/
web界面-local-CT模板/var/lib/pve/local-btrfs/template/cache/

6.外挂硬盘操作参考

Proxmox VE使用LVM新硬盘(多硬盘)_SpeculateCat的博客-CSDN博客_pve添加第二块硬盘PVE 添加硬盘PVE 提供 Web 界面可以完成大部分的操作。但使用阵列卡,如 Dell 的 PERC 阵列卡等,在 Web 界面并不能直接完成添加硬盘和创建 LVM 卷的操作。以下为以 Dell PERC 阵列卡挂载新硬盘为例,介绍如何为 PVE 添加新硬盘。阵列卡添加硬盘使用阵列卡,添加硬盘需要先在开机(或根据不同的阵列卡操作)进行挂载。完成挂载后,在系统中查看新硬盘是否已成功挂载...https://blog.csdn.net/weixin_37272286/article/details/104260277

7.查看/修改ip

# 此文件为开机画面提示的url内容
cat /etc/issue

#此文件为主机名的配置文件
cat /etc/hosts

#此文件为主机IP和网关地址的配置文件
cat /etc/network/interfaces

#此文件为DNS服务器配置文件
cat /etc/resolv.conf

reboot
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

PVE一些记录 的相关文章

  • Proxmox ve(PVE) 显示CPU和硬盘温度、UPS信息

    1 安装CPU温度检测软件sensors apt install lm sensors y 传感器探测 xff0c 命令 xff1a sensors detect 全部选择yes即可 xff0c 可能其中一个地方提示 ENTER xff0c
  • Promox VE(PVE) 连接wifi配置

    pve一个管理虚拟机和容器的平台 xff0c 由于是开源免费的 xff0c 被很多小伙伴用来搭建自己的 34 all in one 34 主机 我也看过很多相关文章和教程 xff0c 看着大家玩的不亦乐乎 xff0c 再看着自己半退役的笔记
  • PVE虚拟机篇-PVE虚拟机安装

    安装包下载 前往Proxmox Virtual Environment下载ISO镜像文件 xff0c 可以直接选择最新版本 但是如果没有海外线路一般下载十分缓慢 xff0c 甚至下不动 xff0c 所以可以去中科大镜像源 xff1a 中科大
  • Promox VE(PVE)重启后GUI不能登录

    ssh能连接 xff0c 但是gui打不开 因为集群节点不正确移除 xff0c 留下配置信息 xff0c 启动后 xff0c 一直找集群的其它机器 ssh远程指令 xff1a pvecm expected 1 上面的命令是告诉系统 xff0
  • pve模板制作cloud-init

    ubuntu 33 wget http cloud images ubuntu com releases focal release ubuntu 20 04 server cloudimg amd64 img 37 qm create 9
  • 【折腾系列—All In One主机】1、 PVE虚拟机系统安装

    PVE虚拟机系统安装 写在前面1 什么是All In One主机 xff1f 2 什么是PVE虚拟机 3 PVE虚拟机的安装3 1 制作PE启动盘进行硬盘格式化3 2 PVE启动盘制作3 3 安装PVE虚拟机 写在前面 为什么要搭建All
  • debian11的PVE应用

    1 在debian11中安装pve7之后 xff0c 新建虚拟机安装openeuler 启动时报错 xff1a TASK ERROR start failed QEMU exited with code 1 可以把这一段 39 kvm ig
  • dell服务器4个网口可以做冗余吗?_万兆 ALL IN ONE服务器安装PVE的流程演示

    哈喽大家好 我是许迎果 前面说过 All in one家庭服务器就是把不同功能的多个系统集中整合到一台设备上面 为了实现这个功能 我们通常需要搭建一个虚拟平台 并在上面安装运行各个系统 虽然大家常用的Windows系统也可以拿来做这个虚拟平
  • 在 PVE 中安装 OpenWrt

    在 PVE 中安装 OpenWrt 本文地址 xff1a blog lucien ink archives 525 最近在捣腾 x86 软路由 xff0c 入门方案一般是底层采用 ESXi 或 PVE xff0c 虚拟层使用 iKuai 4
  • PVE 虚拟机心跳检测并重启

    PVE 虚拟机心跳检测并重启 本文地址 xff1a blog lucien ink archives 531 不知为何 xff0c PVE 中的 OpenWrt 时不时会宕机 xff0c 这是背景 秉承着能用就行的思想 xff0c 写了一个
  • PVE一些记录

    目录 1 简介 2 qm Qemu KVM 虚拟机管理器 3 vmdk img raw转qcow2 4 PVE网卡直通 5 一些位置映射 6 外挂硬盘操作参考 7 查看 修改ip 1 简介 PVE是基于debian的系统 xff0c 使用a
  • Proxmox VE(PVE) 添加Web控制台显示CPU和主板温度

    PVE 默认是没有CPU和主板温度显示的 xff0c 为方便使用 xff0c 我们自己加上 实际效果 版本和软件 Virtual Environment 6 1 3putty 或 PVE自带的Shell 或 MobaXterm 等工具 安装
  • debain 、pve虚拟化平台修改国内源并修改dns

    pve 是基于debain的一个linux 虚拟化平台 xff0c 可以实现创建虚拟机 问题 xff1a Failed to fetch xxxxxxx E Failed to fetch http ftp debian org debia
  • pve 无法删除虚拟机

    在clone时没有先停止clone任务就删除虚拟机导致web无法删除虚拟机102 在pve的shell执行 root 64 pve etc pve qm destroy 102 VM is locked clone root 64 pve
  • 8. 添加Backup Server到PVE集群

    添加Backup Server到PVE集群 1 配置磁盘 2 配置账户 3 PVE中添加 Backup Server
  • 【Linux系统之虚拟化实战】PVE下KVM虚拟机的嵌套安装方法

    Linux系统之虚拟化实战 PVE下KVM虚拟机的嵌套安装方法 一 检查本地系统环境 1 环境规划 2 检查PVE宿主机系统版本 3 检查PVE虚拟机系统版本 二 开启PVE宿主机虚拟化 1 检查PVE主机嵌套虚拟化是否开启 2 PVE主机
  • Linux TOP CPU %wa 值的理解

    起因 近期阅读到Linux下显示CPU执行情况命令top的使用 网上搜索显示为 单位时间io占用cpu比例 cpu等待输入输出 cpu等待io的时间 起初看来 总觉得是io瓶颈或者是cpu负载率 仔细琢磨 总觉得哪里出了问题 跟进 因为IO
  • PVE虚拟化平台之创建虚拟机流程

    PVE虚拟化平台之创建虚拟机流程 一 PVE介绍今天 2022 年 11 月 17 日 有236篇文章可用 二 登录PVE平台 三 登录PVE系统检查环境 1 进入PVE底层系统的shell命令终端 2 检查系统版本 3 检查本地磁盘存储
  • Proxmox VE(PVE) 进行网卡直通

    文章目录 我的设备 介绍 添加CPU支持 开启iommu 查询网卡信息 Intel CPU AMD CPU 新增所需模块 添加PCI设备 命令模式添加 web页面模式添加 验证IOMMU有效 IOMMU中断重映射 查看中断重映射 启用中断重
  • Proxmox VE ZFS 开启Thin Provision(精简配置)

    前言 最近在为一台PVE 的VM添加大容量磁盘时 20T 遇到out of disk 错误 遂发现 ZFS在没有开启Thin Provision前 会提前分配磁盘空间 即使一个字节也没有写入 在开启Thin Provision 后问题得到解

随机推荐

  • CentOS下编译Linux内核

    前言 编译内核是一项很简单的事情 xff0c 但却是进入Linux内核世界的第一步 xff0c 想要开发内核代码 xff0c 想要了解内核的运行机制 xff0c 第一步就是编译Linux内核 xff0c 以下是在centos7 5环境下编译
  • CentOS下快速升级gcc版本

    前言 很多时候由于gcc版本过低问题 xff0c 导致我们举步维艰 xff0c 从gcc官网下载源码编译又比较费时费力 xff0c 今天我就给大家分享一个快速升级gcc的方法 升级到gcc 6 3 xff1a devtoolset 6已经结
  • Linux带宽测试

    iperf是linux下一款非常实用的测带宽工具 xff0c 是C S模型的 xff0c 支持使用TCP和UDP测试 xff0c 可以测试带宽 xff0c 丢包 xff08 丢包指的是UDP的丢包 xff0c TCP丢包会重传 xff09
  • initramfs详解-----初识initramfs

    为什么需要initramfs 在Linux内核被加载到内存并运行后 xff0c 内核进程最终需要切换到用户太的进程来使用计算机 xff0c 而用户进程又存在于外存储设备上 xff0c 比如systemd进程 xff0c 通常systemd进
  • 抓包展示vlan报文(8021Q)

    VLAN数据帧格式 要使交换机能够分辨不同VLAN的报文 xff0c 需要在报文中添加标识VLAN信息的字段 IEEE 802 1Q协议规定 xff0c 在以太网数据帧的目的MAC地址和源MAC地址字段之后 协议类型字段之前加入4个字节的V
  • KVM NAT 模型

    目录 NAT原理 virbr0与virbr0 nic virbr0 nic作用 关于kvm中的网桥和virbr0 nic网卡需注意以下几点 xff1a NAT原理 virbr0与virbr0 nic zyq 64 zyq ip a 6 vi
  • Linux查看实时网卡流量的几种方式

    工作中 xff0c 我们经常需要查看服务器的实时网卡流量 通常 xff0c 我们会通过这几种方式查看Linux服务器的实时网卡流量 1 sar n DEV 1 2 sar命令包含在sysstat工具包中 xff0c 提供系统的众多统计数据
  • NUMA详解

    目录 NUMA简介 NUMA开启与关闭 查看系统是否支持 关闭方法 numactl hardware介绍 没有安装numactl工具下查看NUMA架构节点数 xff1a 查看每个NUMA节点的CPU使用情况 xff1a 看每个NUMA节点的
  • OpenStack中的CPU与内存超分详解

    目录 什么是超分 CPU超分 查看虚拟机虚拟CPU运行在哪些物理CPU上 内存超分 内存预留 内存共享 如何设置内存预留和内存共享 全局设置 临时设置 什么是超分 超分通常指的是CPU或者GPU的分区或者分割 xff0c 以在一个物理CPU
  • docker 官方的镜像大多基于debian,但是官方源apt-get update更新失败,如何更换成中国源

    一开始创建容器的时候就应该更换成国内数据源 xff0c 可是我的镜像源在经历重启后 xff0c 回归到官方镜像源 xff0c 当想安装别的linux命令时 xff0c 异常缓慢 xff0c 安装不上 这种情况就是镜像源导致 镜像源可以在容器
  • MySQL学习笔记(11)——创建视图

    11 视图 11 1 创建视图 创建视图的语法 创建视图使用CREATE VIEW语句 xff0c 基本语法格式如下 xff1a span class token keyword create span span class token p
  • Java 实现天气预报

    效果图 1 登录高德地图API开放平台 天气查询 API文档 开发指南 Web服务 API 高德地图API 2 用户在高德地图官网申请web服务API类型KEY 3 天气查询 天气查询API服务地址 xff1a URL https rest
  • 数学建模学习(1)———— 逻辑回归的使用和案例(2022.7.18)

    许多数学建模的使用基本都是一元线性回归 xff0c 和多元线性回归开始 xff0c 但由于经常看关于这两个东西 xff0c 实在不想从这开始整理笔记 xff0c 等后面印象不深后在整理过 文章目录 目录 文章目录 一 逻辑回归介绍 二 逻辑
  • Windows下python和pip的环境配置 ---转载

    本文转载于 xff1a http www cnblogs com yuanzm p 4089856 html 非常感谢原文作者的博文 xff0c 帮助了我学习的不少困惑 这篇文章作为学习使用Python的第一篇文章 xff0c 如何安装Py
  • GreenHills的使用及常用技巧

    GreenHills作为世界知名第三方调试工具支持市面上几乎所有芯片 V850调试工具有多种选择 当时项目使用Greenhills作为编译调试工具让我见识到了专业工具的强大 本文以KPIT AutoSAR的PORT模块为例介绍GreenHi
  • LaTeX 中处理参考文献的三种方法总结

    LaTeX 中处理参考文献的三种方法总结 方法一 xff1a 用BibLaTeX处理 分成如下四步 xff1a 第一步 xff1a 制作生成bib文件 xff1b 第二步 xff1a 在导言区需要加入biblatex宏包 xff1a use
  • mysql8之SSL加密

    新发现 xff1a 安装Mysql8后 xff0c 查看datadir 文件多了不少 xff0c 发现都是SSL加密对应得文件 pem pwd ls l pem data mysqldata rw 1 mysql mysql 1676 3月
  • mysql常用算法积累

    1 mysql计算百分比 使用sum函数 xff0c 如下 xff1a SELECT COUNT AS 总数 SUM CASE WHEN 96 匹配情况 96 61 1 THEN 1 ELSE 0 END AS 总匹配数 SUM CASE
  • Shell知识点回顾

    shell基本的语法 xff1a 定义变量 xff1a key 61 value 注意 xff1a 等号两边不能有空格 xff0c 使用字母数字下划线命名 xff0c 但是不能以数字开发头 xff0c 系统变量建议全大写字母 撤销变量使用的
  • PVE一些记录

    目录 1 简介 2 qm Qemu KVM 虚拟机管理器 3 vmdk img raw转qcow2 4 PVE网卡直通 5 一些位置映射 6 外挂硬盘操作参考 7 查看 修改ip 1 简介 PVE是基于debian的系统 xff0c 使用a