Linux就该这么学,GlusterFS分布式原理和架构

2023-05-16

文章目录

  • 一、GlusterFS概述
    • GlusterFS的简介
    • GlusterFS的特点
    • GlusterFS的相关用语
    • 模块化堆栈式架构
  • 二、GlusterFS工作原理
    • GlusterFS工作流程
    • 弹性hash算法
  • 三、GlusterFS的卷类型
    • 分布式卷
    • 条带卷
    • 复制卷
    • 分布式条带卷
    • 分布式复制卷
  • 四、部署GlusterFS卷
    • 部署环境
    • 部署过程
    • 规划创建如下卷
    • 查看安装的glusterfs版本
    • 客户端配置
    • 创建分布式卷
    • 创建复制卷
    • 创建分布式复制卷
    • 破坏测试
    • 访问控制

一、GlusterFS概述

GlusterFS的简介

Glusterfs是一个开源的分布式文件系统,是Scale存储的核心,能够处理千数量级的客户端.在传统的解决 方案中Glusterfs能够灵活的结合物理的,虚拟的和云资源去体现高可用和企业级的性能存储。
Glusterfs通过TCP/IP或InfiniBand RDMA网络链接将客户端的存储资块源聚集在一起,使用单一的全局命名空间来管理数据,磁盘和内存资源。
Glusterfs基于堆叠的用户空间设计,可以为不同的工作负载提供高优的性能。

GlusterFS的特点

  • 扩展性和高性能
    GlusterFS利用双重特性来提供几TB至数PB的高扩展存储解决方案。Scale-Out架构允许通过简单地增加资源来提高存储容量和性能,磁盘、计算和I/O资源都可以独立增加,支持10GbE和InfiniBand等高速网络互联。Gluster弹性哈希(Elastic Hash)解除了GlusterFS对元数据服务器的需求,消除了单点故障和性能瓶颈,真正实现了并行化数据访问。

  • 高可用性
    GlusterFS可以对文件进行自动复制,如镜像或多次复制,从而确保数据总是可以访问,甚至是在硬件故障的情况下也能正常访问。自我修复功能能够把数据恢复到正确的状态,而且修复是以增量的方式在后台执行,几乎不会产生性能负载。GlusterFS没有设计自己的私有数据文件格式,而是采用操作系统中主流标准的磁盘文件系统(如EXT3、ZFS)来存储文件,因此数据可以使用各种标准工具进行复制和访问。

  • 全局统一命名空间
    全局统一命名空间将磁盘和内存资源聚集成一个单一的虚拟存储池,对上层用户和应用屏蔽了底层的物理硬件。存储资源可以根据需要在虚拟存储池中进行弹性扩展,比如扩容或收缩。当存储虚拟机映像时,存储的虚拟映像文件没有数量限制,成千虚拟机均通过单一挂载点进行数据共享。虚拟机I/O可在命名空间内的所有服务器上自动进行负载均衡,消除了SAN环境中经常发生的访问热点和性能瓶颈问题。

  • 弹性卷管理
    数据储存在逻辑卷中,逻辑卷可以从虚拟化的物理存储池进行独立逻辑划分而得到。存储服务器可以在线进行增加和移除,不会导致应用中断。逻辑卷可以在所有配置服务器中增长和缩减,可以在不同服务器迁移进行容量均衡,或者增加和移除系统,这些操作都可在线进行。文件系统配置更改也可以实时在线进行并应用,从而可以适应工作负载条件变化或在线性能调优。

  • 基于标准协议
    Gluster存储服务支持NFS, CIFS, HTTP, FTP以及Gluster原生协议,完全与POSIX标准兼容。现有应用程序不需要作任何修改或使用专用API,就可以对Gluster中的数据进行访问。这在公有云环境中部署Gluster时非常有用,Gluster对云服务提供商专用API进行抽象,然后提供标准POSIX接口。

GlusterFS的相关用语

  • Brick:GFS中的存储单元,通过是一个受信存储池中的服务器的一个导出目录。可以通过主机名和目录名来标识。
  • Volume:一组bricks的逻辑集合(卷)
  • FUSE:Filesystem Userspace是一个可加载的内核模块,其支持非特权用户创建自己的文件系统而不需要修改内核代码。通过在用户空间运行文件系统的代码通过FUSE代码与内核进行桥接。
  • VFS:虚拟文件系统
  • Glusterd:Gluster management daemon,要在trusted storage pool中所有的服务器上运行。
  • Node:一个拥有若干brick的设备
  • Client: 挂载了GFS卷的设备
  • RDMA:远程直接内存访问,支持不通过双方的OS进行直接内存访问。
  • RRDNS:round robin DNS是一种通过DNS轮转返回不同的设备以进行负载均衡的方法。
  • Self-heal:用于后台运行检测复本卷中文件和目录的不一致性并解决这些不一致。
  • Volfile:glusterfs进程的配置文件,通常位于/var/lib/glusterd/vols/volname。

模块化堆栈式架构

  • 模块化、堆栈式的架构
  • 通过对模块的组合,实现复杂的功能
    在这里插入图片描述

二、GlusterFS工作原理

GlusterFS工作流程

在这里插入图片描述

弹性hash算法

  • 通过hash算法得到一个32位的整数
  • 划分为N个连续的子空间,每个空间对应一个Brick
  • 弹性hash算法的优点:
    • 保证数据平均分布在每一个Brick中
    • 解决了对元数据服务器的依赖,进而解决了单点故障以及访问瓶颈

三、GlusterFS的卷类型

分布式卷

  • 没有对文件进行分块处理
  • 通过扩展文件属性保存hash值
  • 支持的底层文件系统有ext4、zfs、xfs等
  • 分布卷的特点:
    文件分布在不同的服务器,不具备冗余性
    可以灵活的扩展卷的大小
    单点故障会造成数据丢失
    依赖底层的数据保护
  • 创建分布式卷
    创建一个名为dis-vol的分布式卷,文件将根据hash分布在node1:/data/sdb node2:/data/sdb中
gluster volume create dis-vol node1:/data/sdb node2:/data/sdb force

条带卷

  • 根据偏移量将文件分成N块(N个条带节点),轮询的存储在每个Brick Server节点
  • 存储大文件时,性能尤为突出
  • 不具备冗余性,类似Raid0
  • 条带卷的特点:
    数据被分割成更小块分布到块服务器中的不同条带区
    分布减少了负载且更小的文件加速了存取的速度
    没有数据冗余
  • 创建条带卷
    创建了一个名为stripe-vol的条带卷,文件将被分块轮询的存储在node1:/data/sdc node2:/data/sdc中
gluster volume create stripe-vol stripe 2 transport tcp node1:/data/sdc node2:/data/sdc

复制卷

  • 同一个文件保存一份或多份副本
  • 因为要保存副本,所以磁盘利用率较低
  • 若多个节点上的存储空间不一致,将按照木桶效应取最低节点的容量作为该卷的总容量
  • 复制卷的特点:
    卷中所有的服务器均保存一个完整的副本
    卷的副本数量可由客户创建的时候决定
    至少有两个块服务器或更多服务器
    具备冗余性
  • 创建复制卷
    创建名为rep-vol的复制卷,文件将同时存储两个副本,分别在node3:/data/sdb node4:/data/sdb两个Brick中
gluster volume create rep-vol replica 2 node3:/data/sdb node4:/data/sdb force

分布式条带卷

  • 兼顾分布式卷和条带卷的功能
  • 主要用于大文件访问处理
  • 最少需要4台服务器
  • 创建分布式条带卷
    创建了名为dis-stripe的分布式条带卷,配置分布式的条带卷时,卷中Brick所包含的存储服务器数必须是条带数的倍数(>=2倍)
gluster volume create dis-rep replica 2 node1:/data/sde node2:/data/sde node3:/data/sde node4:/data/sde force

分布式复制卷

  • 兼顾分布式卷和复制卷的功能
  • 用于需要冗余的情况
  • 创建分布式复制卷
    创建名为dis-rep的分布式条带卷,配置分布式复制卷时,卷中Brick所包含的存储服务器数必须是条带数的倍数(>=2倍)
  gluster volume create dis-rep replica 2 node1:/data/sde node2:/data/sde node3:/data/sde node4:/data/sde force

四、部署GlusterFS卷

部署环境

主机名系统IP添加磁盘并格式化每个磁盘挂载点
node120.0.0.10/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1/data/sdb /data/sdc /data/sdd /data/sde
node220.0.0.20/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1/data/sdb /data/sdc /data/sdd /data/sde
node320.0.0.30/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1/data/sdb /data/sdc /data/sdd /data/sde
node420.0.0.40/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1/data/sdb /data/sdc /data/sdd /data/sde
client20.0.0.50

部署过程

为所有服务器添加4个新磁盘
在这里插入图片描述
在这里插入图片描述
所有主机:

[root@server1 ~]# hostnamectl set-hostname 主机名
[root@server1 ~]# bash
[root@node1 ~]# systemctl stop firewalld
[root@node1 ~]# setenforce 0

导入GlusterFS源文件

[root@node1 ~]# cd /opt

在这里插入图片描述

[root@node1 opt]# vi /etc/yum.repos.d/glfs.repo

在这里插入图片描述
所有node:

#安装glusterfs相关软件
[root@node1 ~]# yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma

[root@node1 ~]# systemctl start glusterd
[root@node1 ~]# systemctl enable glusterd
Created symlink from /etc/systemd/system/multi-user.target.wants/glusterd.service to /usr/lib/systemd/system/glusterd.service

[root@node1 ~]# vi /etc/resolv.conf

在这里插入图片描述

[root@node1 ~]# ntpdate ntp1.aliyun.com
17 Nov 11:28:10 ntpdate[13364]: step time server 120.25.115.20 offset -0.878207 sec
[root@node1 ~]# date
20201117日 星期二 11:29:38 CST

每个节点添加4块磁盘,每块20G,格式化后挂载
采用脚本如下

#!/bin/bash
for i in {b,c,d,e}
do

    echo "n
           p



           w" | fdisk /dev/sd$i
         mkdir -p /data/sd$i
         mkfs.xfs /dev/sd${i}1
         cat>>/etc/fstab<<EOF
          /dev/sd${i}1 /data/sd$i xfs defaults 0 0
EOF

done
mount -a

[root@node1 ~]# vi /etc/hosts
在这里插入图片描述

node1:

[root@node1 ~]# gluster peer probe node2
peer probe: success. 
[root@node1 ~]# gluster peer probe node3
peer probe: success. 
[root@node1 ~]# gluster peer probe node4
peer probe: success. 
[root@node1 ~]# gluster peer status
Number of Peers: 3

Hostname: node2
Uuid: 01f72840-cd7c-48af-8db3-f6a0e8553113
State: Peer in Cluster (Connected)

Hostname: node3
Uuid: 8fa1e785-6b53-45f4-9a13-da0199cb0a59
State: Peer in Cluster (Connected)

Hostname: node4
Uuid: d4831719-53b9-4389-95e3-43fbe588f744
State: Peer in Cluster (Connected)

规划创建如下卷

卷名称卷类型空间大小/GBBrick
dis-vol分布式卷40node1:/data/sdb;node2:/data/sdb;
stripe-vol条带卷40node1:/data/sdc;node2:/data/sdc;
rep-vol复制卷20node3:/data/sdb;node4:/data/sdb;
dis-stripe分布式条带卷80node1:/data/sdd;node2:/data/sdd;node3:/data/sdd;node4:/data/sdd;
dis-rep分布式复制卷40node1:/data/sde;node2:/data/sde;node3:/data/sde;node4:/data/sde;

查看安装的glusterfs版本

[root@node1 ~]# gluster --version
glusterfs 3.10.2
Repository revision: git://git.gluster.org/glusterfs.git
Copyright (c) 2006-2016 Red Hat, Inc. <https://www.gluster.org/>
GlusterFS comes with ABSOLUTELY NO WARRANTY.
It is licensed to you under your choice of the GNU Lesser
General Public License, version 3 or any later version (LGPLv3
or later), or the GNU General Public License, version 2 (GPLv2),
in all cases as published by the Free Software Foundation.

客户端配置

[root@client ~]# vim /etc/hosts
14.0.0.10 node1
14.0.0.20 node2
14.0.0.30 node3
14.0.0.40 node4
2.安装glusterfs软件
[root@client ~]# yum -y install glusterfs glusterfs-fuse
3.创建540M的文件
[root@client ~]# dd if=/dev/zero of=/opt/test1.txt bs=1M count=40
[root@client ~]# dd if=/dev/zero of=/opt/test2.txt bs=1M count=40
[root@client ~]# dd if=/dev/zero of=/opt/test3.txt bs=1M count=40
[root@client ~]# dd if=/dev/zero of=/opt/test4.txt bs=1M count=40
[root@client ~]# dd if=/dev/zero of=/opt/test5.txt bs=1M count=40

在这里插入图片描述

创建分布式卷

[root@node1 ~]# gluster volume create dis-vol node1:/data/sdb node2:/data/sdb force
volume create: dis-vol: success: please start the volume to access data

#查看dis-vol卷信息
[root@node1 ~]# gluster volume info dis-vol
 
Volume Name: dis-vol
Type: Distribute
Volume ID: 7336c53b-41da-4c1b-bafa-5be452c167b3
Status: Created
Snapshot Count: 0
Number of Bricks: 2
Transport-type: tcp
Bricks:
Brick1: node1:/data/sdb
Brick2: node2:/data/sdb
Options Reconfigured:
transport.address-family: inet
nfs.disable: on

#启用dis-vol卷
[root@node1 ~]# gluster volume start dis-vol
volume start: dis-vol: success

在这里插入图片描述
信息Status显示Started成功

  • 客户端挂载分布式卷到/test/dis目录下,并将5个测试文件拷贝进去
[root@client ~]# mkdir -p /hyc/dis
[root@client ~]# mount.glusterfs node1:dis-vol /hyc/dis/
[root@client ~]# cp /opt/hyc* /hyc/dis/
[root@client ~]# df -Th
文件系统                类型            容量  已用  可用 已用% 挂载点
……
node1:dis-vol           fuse.glusterfs   10G  265M  9.8G    3% /hyc/dis
  • 回到node1和node2节点中查看5个文件分布情况
[root@node1 ~]# ll -h /data/sdb
总用量 40M
-rw-r--r-- 2 root root 40M 11月 18 10:19 hyc3.txt
[root@node2 ~]# ll -h /data/sdb
总用量 160M
-rw-r--r-- 2 root root 40M 11月 19 10:19 hyc1.txt
-rw-r--r-- 2 root root 40M 11月 19 10:19 hyc2.txt
-rw-r--r-- 2 root root 40M 11月 19 10:19 hyc4.txt
-rw-r--r-- 2 root root 40M 11月 19 10:19 hyc5.txt

创建复制卷

[root@node1 ~]# gluster volume create rep-vol replica 2 node3:/data/sdb node4:/data/sdb force
[root@node1 ~]# gluster volume start rep-vol
[root@node1 ~]# gluster volume status rep-vol

在这里插入图片描述

[root@client ~]# mkdir /hyc/rep-vol
[root@client ~]# mount.glusterfs node1:rep-volu/ /hyc/rep-vol/
[root@client ~]# cp /opt/hyc* /hyc/rep-vol/
[root@client ~]# df -Th
文件系统                类型            容量  已用  可用 已用% 挂载点
……
node1:rep-volu          fuse.glusterfs  4.8G   21M  4.6G    1% /hyc/rep-vol
  • node3和node4节点中查看5个文件分布情况
[root@node3 ~]# ll -h /data/sdb/
总用量 201M
-rw-r--r-- 2 root root 40M 11月 18 19:38 hyc1.txt
-rw-r--r-- 2 root root 40M 11月 18 19:38 hyc2.txt
-rw-r--r-- 2 root root 40M 11月 18 19:38 hyc3.txt
-rw-r--r-- 2 root root 40M 11月 18 19:38 hyc4.txt
-rw-r--r-- 2 root root 40M 11月 18 19:38 hyc5.txt

[root@node4 ~]# ll -h /data/sdb/
总用量 201M
-rw-r--r-- 2 root root 40M 11月 18 19:38 hyc1.txt
-rw-r--r-- 2 root root 40M 11月 18 19:38 hyc2.txt
-rw-r--r-- 2 root root 40M 11月 18 19:38 hyc3.txt
-rw-r--r-- 2 root root 40M 11月 18 19:38 hyc4.txt
-rw-r--r-- 2 root root 40M 11月 18 19:38 hyc5.txt

创建分布式复制卷

[root@node1 ~]# gluster volume create dis-rep replica 2 node1:/data/sde node2:/data/sde node3:/data/sde node4:/data/sde force
volume create: dis-rep: success: please start the volume to access data
[root@node1 ~]# gluster volume start dis-rep
volume start: dis-rep: success
  • 客户端挂载分布式卷到/test/dis-rep目录下,并将5个测试文件拷贝进去
[root@client ~]# mkdir /hyc/dis-rep
[root@client ~]# mount.glusterfs node1:dis-rep /hyc/dis-rep
[root@client ~]# df -Th
[root@client ~]# cp /opt/hyc* /hyc/dis-rep
  • 回到node1、node2、node3和node4节点中查看5个文件分布情况
[root@node1 ~]# ll -h /data/sde/
总用量 40M
-rw-r--r-- 2 root root 40M 11月 18 20:04 hyc3.txt

[root@node2 ~]# ll -h /data/sde/
总用量 40M
-rw-r--r-- 2 root root 40M 11月 19 19:58 hyc3.txt

[root@node3 ~]# ll -h /data/sde/
总用量 160M
-rw-r--r-- 2 root root 40M 11月 18 20:04 hyc1.txt
-rw-r--r-- 2 root root 40M 11月 18 20:04 hyc2.txt
-rw-r--r-- 2 root root 40M 11月 18 20:04 hyc4.txt
-rw-r--r-- 2 root root 40M 11月 18 20:04 hyc5.txt

[root@node4 ~]# ll -h /data/sde/
总用量 160M
-rw-r--r-- 2 root root 40M 11月 18 20:04 hyc1.txt
-rw-r--r-- 2 root root 40M 11月 18 20:04 hyc2.txt
-rw-r--r-- 2 root root 40M 11月 18 20:04 hyc4.txt
-rw-r--r-- 2 root root 40M 11月 18 20:04 hyc5.txt

破坏测试

  • 将node2宕机掉模拟故障,查看客户端中挂载点中依然存在的文件
#模拟故障
[root@node2 ~]# pkill glusterd
[root@node1 ~]# gluster peer status
Number of Peers: 3

Hostname: node2
Uuid: 01f72840-cd7c-48af-8db3-f6a0e8553113
State: Peer in Cluster (Disconnected)

Hostname: node3
Uuid: 8fa1e785-6b53-45f4-9a13-da0199cb0a59
State: Peer in Cluster (Connected)

Hostname: node4
Uuid: d4831719-53b9-4389-95e3-43fbe588f744
State: Peer in Cluster (Connected)

[root@client ~]# ll -h /hyc/dis
总用量 200M
-rw-r--r-- 1 root root 40M 11月 19 2020 hyc1.txt
-rw-r--r-- 1 root root 40M 11月 19 2020 hyc2.txt
-rw-r--r-- 1 root root 40M 11月 18 10:19 hyc3.txt
-rw-r--r-- 1 root root 40M 11月 19 2020 hyc4.txt
-rw-r--r-- 1 root root 40M 11月 19 2020 hyc5.txt
[root@client ~]# ll -h /hyc/dis-rep/
总用量 200M
-rw-r--r-- 1 root root 40M 11月 18 20:04 hyc1.txt
-rw-r--r-- 1 root root 40M 11月 18 20:04 hyc2.txt
-rw-r--r-- 1 root root 40M 11月 19 2020 hyc3.txt
-rw-r--r-- 1 root root 40M 11月 18 20:04 hyc4.txt
-rw-r--r-- 1 root root 40M 11月 18 20:04 hyc5.txt
[root@client ~]# ll -h /hyc/rep-vol/
总用量 201M
-rw-r--r-- 1 root root  40M 11月 18 19:38 hyc1.txt
-rw-r--r-- 1 root root  40M 11月 18 19:38 hyc2.txt
-rw-r--r-- 1 root root  40M 11月 18 19:38 hyc3.txt
-rw-r--r-- 1 root root  40M 11月 18 19:38 hyc4.txt
-rw-r--r-- 1 root root  40M 11月 18 19:38 hyc5.txt
drwx------ 2 root root 4.0K 11月 18 15:36 lost+found

访问控制

#仅拒绝某个用户
[root@node1 ~]# gluster volume set dis-rep auth.reject 20.0.0.50
volume set: success
#仅允许某个用户
[root@node1 ~]# gluster volume set dis-rep auth.allow 20.0.0.50
volume set: success
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Linux就该这么学,GlusterFS分布式原理和架构 的相关文章

  • 03-树2 List Leaves (25 分)

    03 树2 List Leaves 25 分 Given a tree you are supposed to list all the leaves in the order of top down and left to right I
  • Jupyter Notebook上使用tensorflow的血泪教训

    本文所涉及的环境为CUDA Version 10 1 105 xff0c tensorflow gpu2 3 0 xff0c python3 6 xff0c 本文不涉及任何配置环境的细节 xff0c 仅分享在Jupyter Notebook
  • java.sql.SQLNonTransientConnectionException: Could not create connection to database server

    使用JdbcTemplate连接数据库时发生错误 xff1a java sql SQLNonTransientConnectionException Could not create connection to x1f4a5 报错有这么长
  • Springboot集成Neo4j与Shiro冲突

    springboot集成neo4j时 xff0c 由于neo4j与shiro均包含名为 34 sessionFactory 34 的bean xff0c 项目启动时在生成neo4j的session对象时 createSharedSessio
  • 2.4 开发自己的Spring Boot项目

    Spring MVC的视图解析器的作用主要就是定位视图的 xff0c 也就是当控制器只是返回一个逻辑名称的时候 xff0c 是没有办法直接找到对应视图的 xff0c 这就需要视图解析器来解析了 在Maven的pom xml中加入JSP和JS
  • 3.1 IoC容器简介

    所有的IoC容器都需要实现接口BeanFactory xff0c 这是一个顶级的容器接口 BeanFactory接口源码 xff1a span class token comment span span class token commen
  • 3.2.1 通过扫描装配你的Bean

    对于扫描装配而言使用的注解是 64 Component和 64 ComponentScan 64 Component是标明哪个类被扫描进入IoC容器 xff0c 而 64 ComponentScan则是标明采用何种策略去扫描装配Bean 修
  • 3.5 使用属性文件

    可以采用默认为我们配置的application properties xff0c 也可以使用自定义的配置文件 引入属性文件依赖 span class token tag span class token tag span class tok
  • 3.6 条件装配Bean

    Bean初始化前 xff0c 对某些属性进行校验 xff0c 满足校验才去装配数据源 为了处理这样的场景 xff0c 需要用到 64 Conditional注解 xff0c 同时需要配合另外一个接口Condition xff08 org s
  • 3.7 Bean的作用域

    isSingleton方法如果返回true xff0c 则Bean在IoC容器中以单例存在 xff0c 这也是Spring IoC容器的默认值 xff1b 如果isPrototype方法返回true xff0c 则当我们每次获取Bean的时
  • 3.8 使用@Profile

    在企业开发的过程中 xff0c 项目往往要面临开发环境 测试环境 准生产环境和生产环境的切换 xff0c 每一套的上下文是不一样的 xff0c 它们有各自的数据库资源 Profile机制 xff1a 实现各个环境之间的切换 假设存在dev
  • 3.9 引入XML配置Bean

    注解 64 ImportResource xff1a 可以引入对应的XML文件 xff0c 用以加载Bean 有时候有些框架 xff08 如Dubbo xff0c Cat xff09 是基于Spring的XML方式进行开发的 xff0c 这
  • 第2章概述

    示例代码 xff1a span class token doctype span class token punctuation lt span span class token doctype tag DOCTYPE span span
  • 【无标题】

    简单接口HelloService span class token keyword public span span class token keyword interface span span class token class nam
  • 穷举法解华为bl锁

    穷举法解华为bl锁 python3代码测试截图 灵感来自于 xff1a https blog csdn net qq 40169767 article details 90481748 但是我不懂shell脚本 xff0c 那个脚本又运行不
  • 4.1.2 ProxyBean的实现

    代理 xff0c 可控制或增加对目标对象的访问 ProxyBean代码 xff1a span class token keyword package span span class token namespace com span clas
  • IDEA中打开.properties文件乱码

    问题 xff1a IDEA中打开 properties文件乱码 解决方法 xff1a 一 代开settings设置 二 搜索File Encodings 三 在Properties Files中选择编码格式为UTF 8 xff0c 注意一定
  • 怎么避免下载流氓软件,误下载后怎么处理

    经历复盘 xff1a 2022 1 20时 xff0c 为了下载SPSS时不小心下载了流氓软件 回过头来复盘一下 xff0c 一个是因为当时不小心点击了电信高速下载 xff0c 下载了一个P2P软件 点击安装的时候就感觉不太对劲 xff0c
  • eclipse查看不了源码怎么办

    问题 使用eclipse的过程中 xff0c 发现ctrl 43 鼠标左键 查看不了源码 解决方案 可以在弹出的提示框中添加源码的压缩包 xff0c 压缩包在你安装的jdk的根目录下 xff0c 如我的是C Application java
  • 关于if循环语句的四种写法

    if语句在java中起到判断语句的作用写法有四种 xff0c 如下 xff1a if if else if else if if else if else 例如 xff1a 一 xff1a if语句第一种写法 if 好处 xff1a 简单便

随机推荐

  • ROS学习——2编写简单的发布者和订阅者

    ros官网教程 xff1a 编写简单的发布者和订阅者 目录 c 43 43 版python版注意 c 43 43 版 在新建好的catkin ws工作空间下建立 cd catkin ws src 在该目录下创建自己的功能包 xff1a ca
  • ubuntu文件系统结构与磁盘管理

    一 根目录 xff1a Linux下 就是根目录 所有的目录都是由根目录衍生出来的 二 ubuntu 文件系统结构 xff1a 三 绝对路径和相对路径 xff1a 绝对路径 xff1a 从根目录 算起的路径 相对路径 xff1a 相对于目前
  • Framebuffer应用编程

    一 Framebuffer介绍 在Linux系统中通过Framebuffer xff08 帧缓冲 xff09 驱动程序来控制LCD Framebuffer就是一块内存 xff0c 里面保存着一帧图像 Framebuffer中保存着一帧图像的
  • Java编辑提示错误: 编码 GBK 的不可映射字符 (0x80)

    在DOS界面运行编译Java文件时提示错误 xff1a 编码 GBK 的不可映射字符 0x80 理解 xff1a java程序在编译的时候 xff0c 需要使用JDK开发工具包中的JAVAC EXE命令 xff0c 而JDK开发工具包是国际
  • makefile教程

    Makefile是一种用于构建软件项目的自动化工具 xff0c 通过定义一系列规则和依赖关系 xff0c 可以自动化构建 编译 测试和安装软件项目 在本篇教程中 xff0c 我将介绍如何编写一个简单的Makefile xff0c 并解释Ma
  • 原来制作数据可视化大屏这么简单,这三步就能完成

    不知道大家在对数据进行可视化处理的时候 xff0c 有没有碰到过以上问题 xff1f 身为一位经常需要整理数据 可视化处理的数据人 xff0c 我真的心有体会 随着越来越多的头部企业启动数据大屏展示公司的年度 战绩 xff0c 以数据大屏为
  • VirtualBox主机ping不通虚拟机

    问题 xff1a 虚拟机可以ping通主机 xff0c 主机无法ping通虚拟机 1 检查虚拟机是否配置好NAT网络连接 xff0c 从而能够ping通外网 2 配置主机ping虚拟机 xff0c 创建桥接网卡 3 检查虚拟机是否出现新建桥
  • MATLAB“在当前文件夹或MATLAB路径中未找到文件“的小“坑”

    更新 xff1a 似乎找到了官方依据 另外 xff0c 这个问题在MATLAB2020中似乎已经得到了修复 MATLAB文件夹的相关问题 新手使用matlab会遇到文件夹的问题 xff1a 第一 xff0c 新建一个脚本 xff0c Ctr
  • Ubuntu18.04下PX4+gazebo+QGC实现无人机在仿真环境下的房屋巡视

    前言 xff1a 老师给我布置了在仿真环境下模拟带摄像头的无人机在仿真环境下的巡视任务 xff0c 在完成任务的过程中 xff0c 遇到了很多问题 xff0c 查阅了许多博主的资料 xff0c 有些关键环节只是被一带而过 xff0c 导致安
  • 双系统下ubuntu18.04装拓展显示屏血泪史

    1 背景 xff1a 买了块新显示器 xff0c 想在ubuntu18 04下使用 xff0c 得装驱动 xff0c 刚开始按网上的一个教程 xff0c 直接把内核装坏了 xff0c 后来重装过系统才最终完成拓展屏的功能实现 xff0c 特
  • ROS工作空间、功能包创建,编译相关的C++/python程序详解

    有关工作空间的结构 xff1a WorkSpace 自定义的工作空间 build xff1a 编译空间 xff0c 用于存放CMake和catkin的缓存信息 配置信息和其他中间文件 devel xff1a 开发空间 xff0c 用于存放编
  • VScode配置ROS环境下Debug调试

    参考 xff1a VScode debug ROS cpp程序设置 断点调试 ABC Orange的博客 CSDN博客 poll failed with error interrupted system call Get Started w
  • C++速成(封装、继承和多态)

    前前言 xff1a 如果有时间 xff0c 搜一个完整的教程看 xff0c 用到啥学啥 xff0c 这样可能可以省更多的时间 61 61 前言 xff1a C 43 43 的命名规范 C 43 43 命名规范 ajioy的博客 CSDN博客
  • 神经网络与深度学习课程总结二

    深度学习平台介绍 1 1PyTorch是一个Python的深度学习库 它最初由Facebook人工智能研 究小组开发 xff0c 而优步的Pyro软件则用于概率编程 1 1 1PyTorch基本使用 基本概念 张量 xff08 Tensor
  • 神经网络与深度学习课程总结三

    一 数据集与评价指标 算法评估 xff1a P R曲线 mAP计算 二 目标检测与YOLO 目标检测问题 xff1a 目标检测是在给定的图片中精确找到物体所在位置 并标注出物体的类别 物体的尺寸变化范围很大 摆放物体的角度 姿态不定 而且可
  • 神经网络与深度学习课程总结四

    一 数据处理基础 1 1特征编码 xff1a 第1列表示年龄 xff0c 是一个数值特征 第2列表示性别 xff0c 是一个只有一位 xff08 0 xff0c 1 xff09 的特征 0 gt Male 1 gt Female 第3列表示
  • 高大上的数据可视化图表,只需6步就能完成

    一份高质量的数据可视化图表 xff0c 能够让你清晰 全面地传达出数据信息 xff0c 成为你工作 学习 竞赛的助推器 xff01 因此 xff0c 一款功能强大的可视化软件显得尤为重要 xff01 最近博主在用的百度 Sugar BI x
  • 从零开始的MySQL学习,完全备份、增量备份和备份恢复

    文章目录 一 数据备份的重要性二 数据库备份的分类从物理与逻辑的角度从数据库的备份策略角度 三 完全备份完全备份的优点完全备份的缺点 四 mysqldump备份库备份单个库备份多个库备份所有库备份表 五 备份恢复source命令恢复mysq
  • 【错误归纳】rsync远程同步:报错password file must not be other-accessible

    实验场景 xff1a rsync远程同步 故障现象 xff1a 做rsync远程同步时 xff0c 当时在发起端输入了以下命令 调用了免密方式同步文件 rsync span class token operator span az span
  • Linux就该这么学,GlusterFS分布式原理和架构

    文章目录 一 GlusterFS概述GlusterFS的简介GlusterFS的特点GlusterFS的相关用语模块化堆栈式架构 二 GlusterFS工作原理GlusterFS工作流程弹性hash算法 三 GlusterFS的卷类型分布式