Hadoop伪分布集群配置(我用的是VMwareWorkstation)

2023-05-16

1.虚拟机环境准备:

        1.0)首先准备好一台已经安装好了的虚拟机(我这里用的是Centos)

        2.0)安装 vim 编辑器 使用 yum -y install vim,也可以直接用vi

注意:安装好了vim,一定要执行yum -y update来更新数据源,之后重启reboot虚拟机。

        3.0)配置静态 IP 前,先关闭虚拟机,在编辑里找到虚拟网络编辑器并点击。

46eaf9b768d24e268ce5b67a66bfdf94.png

 ab268caa50d1415b953045cc49afd2c6.png

        需要记住这两个值,后面可以要用。

        4.0)开机进入终端查看ip,①可以通过ip addr查看,②用ifconfig,但前提你要先执行载 yum -y   install net-tools,否则会出现这个情况

006e302a65fa47248067154aec8de31e.png

      905b5d2d04a247399807aeb123d95970.png

        这里看到了ip,但是却是动态的,接下来我们开始配置它。

        在终端进入cd /etc/sysconfig/network-scripts/,用ls查看我们要配置的文件名字.(一般是第一个且后面带有很多数字)

ae9c24bd67a643af80a16f9b95217210.png

接着输入vim  ifcfg-eno16777736, 可以输入ifcfg-e用旁边的Tab键补齐。 

           d27ec4f8a2af4aa2bf2e19f1b7613ee2.png

         这个dhcp是动态ip,即每次进去都可能会不一样,我们把它改成static静态的。  接着添加下面代码: 

BOOTPROTO="static"

 #之前记住的ip,后面是128,设置为主机 IP在128至254之间即可

IPADDR=192.168.150.130 

#此处与 netmask=255.255.255.0 等效
PREFIX=24

#网关设置
GATEWAY=192.168.150.2   

#域名解析器 默认与网关相同
DNS1=192.168.150.2         

3a7542031c474520b779338936b2d946.png

编辑完后,先点击电脑的Esc键后使用Shift和:组合键,再输入wq!保存并退出编辑vim。然后输入source  ifcfg-eno16777736后并输入reboot达到重启虚拟机。

        5.0)这里为了方便后面上传文件和编辑用Xshell和Xftp进行。这里我把这两个文件和jdk,hadoop都放在这里,有需要的小伙伴可以下载。

链接:https://pan.baidu.com/s/1Zw72OdkNej6cdOVU6GRo2A?pwd=gabw 

提取码:gabw

用Xshell连接先在终端关闭防火墙,指令systemctl stop firewalld,然后在进入Xshell创建一个

会话。

73ee10fe10544d1e8c2b872cc2309ce6.png

主机就是你刚刚设置的ip,然后直接点击连接。 7ed9843cb8a944e7bab6eed73074d62d.png

双击新建的会话并选择接受并保存(这里箭头错了)

8faa35599d6d4c0e925ffad848463391.png

 aa615006bd034081aaa21a32f0667bca.png

 0a740402e5c84393ac134e5906583adf.png

这里用户名统一是root,密码则是你自己设置的开机进入登录密码,最好两个都选择记住,为了下次登录方便。

        6.0)安装好了Xshell和Xftp才可以点击这个绿色的图标

bcf9d106ef4944fbb32016a1340d80b0.png

 8ed2b8c1c55143f4a6951f7c8a10ff43.png

这个也应该是点击接受并保存,其实这两种都差不多。 

 aea8973c1c9d4ff38cf8c07237bf3cff.png

2 .开始安装jdk和hadoop:

        1.0)首先新建两个空目录来放置它们,这里我进入在/opt 目录下创建 software、module

4cf00944fe004b1584129bbcb96e4b42.png

        2.0)把软件把上传到 software 目录下 

6f16d2b27e8a417b88eb450b8941a286.png

0f9fa2e1fc7c4037974d1ce302ff62f6.png ee6b97ff2b89404cb366a771371eed3b.png

         3.0)检测是否安装jdk及其配置

        #解压 JDK并检验jdk,这里解压到/opt/module下

tar  -zxvf  jdk-8u301-linux-x64.tar.gz   -C  /opt/module/

08765d871d414f53aafe7d1835e506f4.png

 48e5613ff0bf4021a925f66449b356eb.png

#配置环境变量,使其生效并检查 。新建 my_path.sh 文件,因为后期我们的环境比较多,所以单独放在一个文件中

# vim  /etc/profile.d/my_path.sh

#JAVA_HOME    

export

JAVA_HOME=/opt/module/jdk1.8.0_301
export

PATH=$PATH:$JAVA_HOME/bin

1ebdfebe6c004bcfb22cbb13bfb24f28.png

 acdff5015d3b4c79b4d6a325325c61c6.png

编辑完后,先点击电脑的Esc键后使用Shift和:组合键,再输入wq!保存并退出编辑vim        

        #使配置生效,并检查

        使用source /etc/profile后输入java  -version来检验其版本

#使配置生效,并检查

source  /etc/profile

java   -version

7eb1d12d28bf46fab365f42dcb86a2d6.png

        4.0)安装hadoop并配置

        进入 Hadoop 安装包所在路径   cd /opt/software/       

         解压安装,并检查(建议小伙伴记一下解压命令,这是经常要用的)

tar  -zxvf  hadoop-3.1.3.tar.gz   -C  /opt/module/

0d8a20efc4b44506ad7c416b4bce737b.png

ce60e69fc7c14ff7ad894bef0dae7e70.png

 添加到环境变量,使配置生效并测试

#vim  /etc/profile.d/my_path.sh

#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

946f56c511f94f55a87840ce2b5fe307.png

 #使配置生效,并测试是否安装成功

source  /etc/profile和hadoop  version来检验其版本

#使配置生效,并检查

source  /etc/profile

hadoop    version

5d66bbb976b24de1b1a6e6f3cd156645.png

3.0伪分布 运行模式配置:伪分布式只需要修改 2 个配置文件即可运 行,core-site.xml 和 hdfs-site.xml

        1.0)SSH 免密登录

 #yum -y install   openssh-server

#vim /etc/hosts

192.168.150.130      master   #前面是自己本机ip,后面是你的hostname

743234a6c9194ccfac6550d9013881c6.png

[root@master hadoop]#ssh master  #其中 master 是主机名 此时 localhost 与其等效 #第一次登录会询问是否继续连接,输入 yes 即可,然后输入密码

[root@master ~]#exit      #退出

33dca93afa894179ac01329c76d21f09.png

 然后在,用户家目录下会生成一个.ssh目录,进入.ssh目录下

[root@master ~]#cd /root/.ssh

#生成密钥对(公钥和私钥)

[root@master .ssh]#ssh-keygen -t rsa #按 3 下回车 

6f9f7013b6924f9c912bf08bdf1d702d.png

 #把公钥拷贝到需要免密登录的机器上

[root@master .ssh]#ssh-copy-id master           

2b19c2a800f24cada9e3a35e30012cb9.png

         2.0) 修改配置文件

[root@master .ssh]#cd  /opt/module/hadoop-3.1.3/etc/hadoop/

[root@master hadoop]#vim  core-site.xml

#修改 core-site.xml 为以下内容

147c6d37f4ae40e585167fdd54132793.png

1ddd831e76394a179363eab540cc3978.png

<!--指定 NameNode的地址 -->
<property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:8020</value>
</property>
<!--指定hadoop数据的存储目录-->
<property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/module/hadoop-3.1.3/data</value>
</property>
<!--配置HDFS网页登录使用的静态用户为root-->
<property>
        <name>hadoop.http.staticuser.user</name>
        <value>root</value>
</property>

         [root@master hadoop]#vim  hdfs-site.xml

        #修改 hdfs-site.xml 为以下内容

b12907aa75bd4f3a9596de571100f9fd.png

5ba8d0dcdbc44310aeaa479e5329a02f.png

<!-- NameNode web 端访问地址 -->
<property>
        <name>dfs.namenode.http-address</name>
        <value>master:9870</value>
</property>
<!--文件数据副本数 -->
<property>
        <name>dfs.replication</name>
        <value>1</value>
</property>

         3.0)Hadoop 配置文件说明: Hadoop 的运行方式是由配置文件决定的,运行 hadoop 时会读取配置文件,因此如果需 要从伪分布式切换回单机模式,则需要删除配置文件中的配置项

首先把hadoop环境变量加入/etc/profile

1da2feb5a3ec48509c70e3a7aa135372.png

export     HADOOP_HOME=/opt/module/hadoop-3.1.3

export     PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

source  /etc/profile

NameNode 格式化

[root@master hadoop]#hdfs namenode -forma

5769d724957e46bf9de7dab57ffd79e8.png

vim /opt/module/hadoop-3.1.3/etc/hadoop/hadoop-env.sh 

#在 hadoop-env.sh 文件末尾加入以下内容  :

export HDFS_NAMENODE_USER=root

export HDFS_DATANODE_USER=root

export HDFS_SECONDARYNAMENODE_USER=root

使用Shif+G可以直接跳至最后一行第一个

e3f170d4ffb645a79f249a9745787617.png

启动 NameNode 和 DataNode

[root@master hadoop]#start-dfs.sh

2236e218e57e48ed87a4e68d40a9709b.png

        4.0)在浏览器地址栏输入http://192.168.150.130:9870/ 其中 192.168.150.130 为 主机 IP 地址,9870 为端口号

注意:在这一步之前必须关闭防火墙systemctl stop firewalld

812cfe29d55a43c7a598f06396c7b44e.png

f253c62cf04949b68586a4c3771d5d57.png

        5.0)配置 Yarn 有些人可能注意到了,怎么没有 ResourceManager 和 NodeManager 即 Yarn,Yarn 是 Hadoop2.X 才有的,从 1.X 的 MapReduce 中分离出来的,负责资源管理与任务调度, Yarn 运行于 MapReduce 之上,提供了高可用性、高扩展性。 因为 Yarn 主要是为集群提供更好的资源管理和资源调度,在单个机器上体现不出价 值,而且 Yarn 很吃内存,所以伪分布式是否开启 Yarn 看个人兴趣 操作如下:修改 yarn-site.xml

[root@master hadoop-3.1.3]#vim etc/hadoop/yarn-site.xml

#添加以下内容

<!-- Site specific YARN configuration properties -->
<!--指定 mapreduce 走 shuffle -->
<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>
<!-- 指定 ResourceManager的地址 -->
<property>
        <name>yarn.resourcemanager.hostname</name>
        <value>master</value>                                  #这里的hostname就是master
</property>

修改 mapred-site.xml

[root@master hadoop-3.1.3]#vim etc/hadoop/mapred-site.xml

<!-- 指定MapReduce程序运行在Yarn上 -->
<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
</property>

在这里还需要指定用户,要不然会出错

#vim  /opt/module/hadoop-3.1.3/etc/hadoop/yarn-env.sh ,在这里添加下面代码:

export YARN_RESOURCEMANAGER_USER=root

export YARN_NODEMANAGER_USER=root

 启动Yarn

[root@master hadoop-3.1.3]#start-yarn.sh

5c61fd09e3c04568a196a6127e4ca1fc.png

 检查进程

[root@master hadoop-3.1.3]#jps

423cf6a4d7c54c90bc2889406976e7fd.png

 不过可以在 ResourceManager 的 Web 端看到任务运行情况 http://192.168.150.130:8088/  主机 IP+8088 端口号

注意:这里我们之前是关闭了防护墙,如果没关闭是打不开的,当然我们这里是可以直接看到的

19fe8e2dcdcb4f95b684146c596069db.png

配置好 Yarn 后运行实例时,需要在 yarn-site.xml 加入以下内容:

<!-- 环境变量的继承 -->

<property>

<name>yarn.nodemanager.env-whitelist</name>

<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CO NF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOM E</value>

</property>

 不配置会报错找不到或无法加载主类,还可以用第二种方法解决。在命令行输入 hadoop classpath ,把输出的值添加到 yarn-site.xml 文件对应属 性 yarn.application.classpath 下面:

<property>

        <name>yarn.application.classpath</name>

<value>/opt/module/hadoop-3.1.3/etc/hadoop:/opt/module/hadoop-3.1.3/share/hadoop/c ommon/lib/*:/opt/module/hadoop-3.1.3/share/hadoop/common/*:/opt/module/hadoop-3 1.3/share/hadoop/hdfs:/opt/module/hadoop-3.1.3/share/hadoop/hdfs/lib/*:/opt/module/ hadoop-3.1.3/share/hadoop/hdfs/*:/opt/module/hadoop-3.1.3/share/hadoop/mapreduce/ lib/*:/opt/module/hadoop-3.1.3/share/hadoop/mapreduce/*:/opt/module/hadoop-3.1.3/s hare/hadoop/yarn:/opt/module/hadoop-3.1.3/share/hadoop/yarn/lib/*:/opt/module/hado op-3.1.3/share/hadoop/yarn/*</value>

</property>

 两种配置等效,第二种有点冗余,自由选择。 

修改配置后需要重启 Yarn

[root@master hadoop-3.1.3]#stop-yarn.sh

[root@master hadoop-3.1.3]#start-yarn

        6.0)配置历史服务器

               但是一旦重新启动 YARN 就无法看到之前运行过的程序的运行情况(输出结果依然 在),配置历史服务器就可以解决这一问题 ,操作如下 :

修改 mapred-site.xml

[root@master hadoop-3.1.3]#vim etc/hadoop/mapred-site.xml

<!-- 历史服务器端地址 -->
<property>
        <name>mapreduce.jobhistory.address</name>
        <value>master:10020</value>
</property>
<!-- 历史服务器web端地址 -->
<property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>master:19888</value>
</property>

 启动历史服务器:

[root@master hadoop-3.1.3]#mapred --daemon start historyserver

a4f33fa1ba134dbb9fb317a6949b0680.png

访问 http://192.168.150.130:19888/ 即主机 IP+19888 端 ,可以看到历史任务情况。

d5ec6c10a48d4adc83a1068bb98984bf.png

 至此 hadoop伪分布就完成了,当然这个只是个开端,真正的集群是不会只在一台虚拟机上的,应该是多台虚拟机共同完成,提高了效率和可修复性。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Hadoop伪分布集群配置(我用的是VMwareWorkstation) 的相关文章

  • 使用 Hadoop MapReduce 的计算语言学项目构想

    我需要做一个关于计算语言学课程的项目 是否有任何有趣的 语言 问题 其数据密集程度足以使用 Hadoop MapReduce 来解决 解决方案或算法应尝试分析并提供 语言 领域的一些见解 但是它应该适用于大型数据集 以便我可以使用 hado
  • 是否可以直接从文件加载镶木地板表?

    如果我有一个二进制数据文件 可以转换为 csv 格式 有什么方法可以直接从中加载镶木地板表吗 许多教程显示将 csv 文件加载到文本表 然后从文本表加载到镶木地板表 从效率的角度来看 是否可以像我已有的那样直接从二进制文件加载镶木地板表 理
  • 使用自制软件安装hadoop时出错

    我正在尝试在 Mac 上本地安装 hadoop 但在尝试 brew install hadoop 时收到以下错误 brew install hadoop gt Downloading http www apache org dyn clos
  • Amazon MapReduce 日志分析最佳实践

    我正在解析 Apache Nginx Darwin 视频流服务器 生成的访问日志 并按日期 引用者 用户代理聚合每个交付文件的统计信息 每小时都会生成大量日志 而且这个数字在不久的将来可能会急剧增加 因此通过 Amazon Elastic
  • java.lang.IllegalArgumentException:错误的 FS:,预期:hdfs://localhost:9000

    我正在尝试实现reduce side join 并使用mapfile reader来查找分布式缓存 但在stderr中检查时它没有查找值 它显示以下错误 lookupfile文件已经存在于hdfs中 并且似乎已正确加载进入缓存 如标准输出中
  • 如何使用新的 Hadoop API 来使用 MultipleTextOutputFormat?

    我想编写多个输出文件 如何使用 Job 而不是 JobConf 来执行此操作 创建基于密钥的输出文件名的简单方法 input data type key value cupertino apple sunnyvale banana cupe
  • Hive(查找连续 n 列中的最小值)

    我在 Hive 中有一个表 有 5 列 即电子邮件 a first date b first date c first date d first date a b c d 是用户可以执行的 4 个不同操作 上表中的 4 列表示用户执行第一个
  • 一个目录下可以有两个oozieworkflow.xml文件吗?

    一个目录下可以有两个oozieworkflow xml文件吗 如果是这样 我如何指示 oozie runner 运行哪一个 您可以有两个工作流程文件 只需为它们指定唯一的名称 然后您可以通过设置oozie wf application pa
  • 在 Hive 中分解一行 XML 数据

    我们将 XML 数据作为名为 XML 的单个字符串列加载到 Hadoop 中 我们正在尝试检索数据级别 并将其标准化或分解为单行进行处理 你知道 就像表格一样 已经尝试过分解功能 但没有得到我们想要的 示例 XML
  • 2017 年在 OS X 上从源代码构建 Apache Hadoop

    到目前为止 我已经分叉了 Git 存储库 https github com apache hadoop 我一直在寻找有关如何从源代码构建的信息 我尝试过以下命令 mvn package Pdist Dtar DskipTests 这导致了以
  • 为什么组合器输入记录的数量比映射的输出数量多?

    Combiner 在 Mapper 之后 Reducer 之前运行 它将接收给定节点上的 Mapper 实例发出的所有数据作为输入 然后它将输出发送到Reducers 因此组合器输入的记录应小于映射输出的记录 12 08 29 13 38
  • 在 Hadoop 中处理带标头的文件

    我想在 Hadoop 中处理很多文件 每个文件都有一些头信息 后面跟着很多记录 每个记录都存储在固定数量的字节中 对此有何建议 我认为最好的解决方案是编写一个自定义的InputFormat http hadoop apache org co
  • 获取 emr-ddb-hadoop.jar 将 DynamoDB 与 EMR Spark 连接

    我有一个 DynamoDB 表 需要将其连接到 EMR Spark SQL 才能对该表运行查询 我获得了带有发行标签 emr 4 6 0 和 Spark 1 6 1 的 EMR Spark Cluster 我指的是文档 使用 Spark 分
  • 遍历 ArrayWritable - NoSuchMethodException

    我刚刚开始使用 MapReduce 并且遇到了一个奇怪的错误 我无法通过 Google 回答该错误 我正在使用 ArrayWritable 制作一个基本程序 但是当我运行它时 在Reduce过程中出现以下错误 java lang Runti
  • 纱线上的火花,连接到资源管理器 /0.0.0.0:8032

    我正在我的开发机器 Mac 上编写 Spark 程序 hadoop的版本是2 6 spark的版本是1 6 2 hadoop集群有3个节点 当然都在linux机器上 我在idea IDE中以spark独立模式运行spark程序 它运行成功
  • 将 CSV 转换为序列文件

    我有一个 CSV 文件 我想将其转换为 SequenceFile 我最终将使用它来创建 NamedVectors 以在聚类作业中使用 我一直在使用 seqdirectory 命令尝试创建 SequenceFile 然后使用 nv 选项将该输
  • 适用于 Hadoop 的 DynamoDB 输入格式

    我必须使用 Hadoop mapreduce 处理保留在 Amazon Dynamodb 中的一些数据 我在互联网上搜索 Dynamo DB 的 Hadoop InputFormat 但找不到它 我对 Dynamo DB 不熟悉 所以我猜测
  • 我可以在没有 Hadoop 的情况下使用 Spark 作为开发环境吗?

    我对大数据和相关领域的概念非常陌生 如果我犯了一些错误或拼写错误 我很抱歉 我想了解阿帕奇火花 http spark apache org 并使用它仅在我的电脑中 在开发 测试环境中 由于Hadoop包含HDFS Hadoop分布式文件系统
  • HDFS:使用 Java / Scala API 移动多个文件

    我需要使用 Java Scala 程序移动 HDFS 中对应于给定正则表达式的多个文件 例如 我必须移动所有名称为 xml从文件夹a到文件夹b 使用 shell 命令我可以使用以下命令 bin hdfs dfs mv a xml b 我可以
  • 更改 Spark Streaming 中的输出文件名

    我正在运行一个 Spark 作业 就逻辑而言 它的性能非常好 但是 当我使用 saveAsTextFile 将文件保存在 s3 存储桶中时 输出文件的名称格式为 part 00000 part 00001 等 有没有办法更改输出文件名 谢谢

随机推荐

  • Docker的常用命令

    文章目录 目录 文章目录 前言 一 帮助命令 二 镜像命令 1 查看镜像 2 搜索镜像 3 下载镜像 4 删除镜像 三 容器命令 1 启动容器 2 查看容器 3 退出容器 4 删除容器 5 启动和停止容器 四 常用的其它命令 后台运行 查看
  • spring cloud gateway网关和链路监控

    文章目录 目录 文章目录 前言 一 网关 1 1 gateway介绍 1 2 如何使用gateway 1 3 网关优化 1 4自定义断言和过滤器 1 4 1 自定义断言 二 Sleuth 链路追踪 2 1 链路追踪介绍 2 2 Sleuth
  • sso单点登录

    文章目录 目录 文章目录 前言 一 sso结构实现 二 使用步骤 2 1 建一个spring cloud 项目 2 2 common下的core的配置 2 3 实现系统的业务微服务 2 4 sso模块的编写 总结 前言 单点登录 Singl
  • windows版 redis在同一局域网下互联

    项目场景 xff1a 同一局域网下各个主机互相连接同一个redis 问题描述 无法连接 原因分析 xff1a 没有放行对方的地址 解决方案 xff1a 修改配置文件 最重要的一步如下 然后把 redis windows conf的文件也照上
  • mysql数据库之存储过程

    文章目录 目录 文章目录 前言 一 存储引擎 1 1 InnoDB 1 2 MyISAM 二 存储过程 2 1 存储过程 2 1 1 创建存储过程 2 1 2 调用存储过程 2 1 3 查看存储过程 2 1 4 删除存储过程 2 2 语法
  • 秒杀的理解

    项目场景 xff1a 秒杀限时或者限量的处理一件商品 实现理解 xff1a 秒杀业务流程 如果使用java逻辑判断减库存的话 xff0c 会出现多个线程同时修改好库存 xff0c 然后存入相同的修改值 实际上是卖出了多个 但是数据库只扣了一
  • VUE3的setup函数

    文章目录 目录 文章目录 前言 一 setup函数是什么 xff1f 二 使用步骤 三 vue3中文文档和面向vue3的组件库 总结 前言 Vue3是一个面向数据驱动的渐进式JavaScript框架 xff0c 其的设计理念包括简洁 灵活和
  • 几种实现promise队列的方法

    第一种 xff1a 使用map实现promise队列 初始值为promise resolve 为成功状态 xff0c 每次成功都返回一个promise xff0c 依次执行 span class token keyword function
  • SD卡在烧录镜像系统之后恢复正常使用

    问题 xff1a 我们知道发现镜像系统烧录完毕以后将SD卡插入电脑 xff0c 电脑会找不到SD卡 xff0c 也无法读取SD卡显示 实际是可以的只是不能正常显示出来 xff0c 这是正常现象 如果我们的开发板 xff08 如jetson
  • 手工制作F450四旋翼无人机的工具准备以及apm调参 GPS调参等相关工作

    F450 是一款大量航模爱好者都很喜欢的一款无人机结构 xff0c 很多想动手制作无人机的同学 xff0c 都是从这一款机型开始的 xff0c 当然我也是 xff0c 在制作一款无人机 xff0c 我们需要以下部件准备 xff0c 1 xf
  • git合并分支

    前提 xff1a 所有开发在develop xff0c 最后合并到master 1 从master建立本地分支temp xff0c git checkout b temp xff0c 这个temp分支不要发布到远程仓库 xff1b 2 在t
  • Java基础笔记一

    Java基础笔记一 本文章是作者学习B站系列视频 狂神说Java 的记录笔记与心得 xff0c 创作不易 xff0c 希望能够得到您的支持 Java程序运行机制 编译型 xff1a 完整编译 Java编译器将 java 文件编译为 clas
  • 树莓派4b入门以及各种系统烧录问题分享

    文章目录 前言一 买一个树莓派二 上系统三 系统烧录故障情况1 固件问题2 验证失败3 插入主板 xff0c 报错 xff1a VFS Unable to mount root fs on unknown block 179 2 1 重新格
  • gazebo保存world时出现问题

    gazebo保存world时出现没反应 xff0c 以为卡死了 xff0c 可最小化的时候能看到保存界面弹出 可以每次最小化再放大 xff0c 以此刷新界面 xff0c 一步一步保存
  • Windows向日葵连接Ubuntu时“连接已断开”解决方案

    环境 控制端 xff1a Windows10 系统 xff0c 向日葵版本12 5 1 44969 被控端 xff1a Ubuntu20 04 系统 xff08 默认gdm3桌面 xff09 xff0c 向日葵版本11 0 0 36662
  • [调参神器]使用VOFA+上位机进行PID调参(附下位机代码)

    1 VOFA 43 是啥 简单地来说 xff0c VOFA 43 是一个超级串口助手 xff0c 除了可以实现一般串口助手的串口数据收发 xff0c 它还可以实现数据绘图 xff08 包括直方图 FFT图 xff09 xff0c 控件编辑
  • visual studio 2022 调试时如何1、打开监视窗口;2、监视窗口无法输入问题

    1 如何打开监视窗口 xff1a 注意要先点击调试 xff0c 不然没有这个窗口 2 如果窗口显灰色 xff0c 说明当前调试状态没有中断 xff0c 而只有中断的时候才可以输入或修改 3 点击调试里的 全部中断 后就可以输入了 xff01
  • 单片机学习——定时器/计数器

    单片机必学系列 单片机学习 中断系统 单片机学习 存储器详解 xff08 程序存储器 片内RAM 拓展RAM EEPROM xff09 单片机学习 定时器 计数器 单片机学习 A D转换 更新ing 单片机学习 定时器 计数器 单片机必学系
  • C++的动态多态性理解

    多态 xff1a 指允许不同类的对象对同一消息做出响应 即同一消息可以根据发送对象的不同而采用多种不同的行为方式 xff08 发送消息就是函数调用 xff09 像我们之前学的函数重载和符号重载都是多态现象 例 xff1a 使用运算符 43
  • Hadoop伪分布集群配置(我用的是VMwareWorkstation)

    1 虚拟机环境准备 xff1a 1 0 xff09 首先准备好一台已经安装好了的虚拟机 我这里用的是Centos 2 0 xff09 安装 vim 编辑器 使用 yum y install vim 也可以直接用vi 注意 xff1a 安装好