【原】Hadoop伪分布模式的安装

2023-05-16

Hadoop伪分布模式的安装

【环境参数】

(1)Host OS:Win7 64bit

(2)IDE:Eclipse Version: Luna Service Release 2 (4.4.2)

(3)虚拟机:VMware 10

(4)Client OS:CentOS 6.4 32bit

注意:

若是CentOS 64bit,则在启动hadoop时,会报出警告。

原因:Hadoop的本地库($HADOOP_HOME/lib/native/libhadoop.so.1.0.0)是在32 bit平台编译的,只支持32bit,并不支持64bit的,因此,若在64bit的CentOS上启动就会报出警告,如下所示。

INFO namenode.NameNode: createNameNode [-format]

Java HotSpot(TM) Server VM warning: You have loaded library /home/hadoop/app/hadoop-2.4.1/lib/native/libhadoop.so.1.0.0 which might have disabled stack guard.

The VM will try to fix the stack guard now.

It's highly recommended that you fix the library with 'execstack -c <libfile>', or link it with '-z noexecstack'.

WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

(5)JDK版本:jdk-7u55-linux-i586.tar

(6)Hadoop Version:hadoop-2.4.1

(7)Hadoop集群配置参数

       本集群共三个节点,一个是Namenode节点,剩余两个为Datanode节点。

7.1)Namenode节点参数

IP:192.168.234.8

主机名:namenode01

7.2)第一个DataNode节点参数

IP:192.168.234.11

主机名:datanode01

7.3)第二个DataNode节点参数

IP:192.168.234.12

主机名:datanode02

(8)本机在NAT连接(VMnet8)方式下,对应虚拟网络中的IP地址:192.168.234.1 
 

【步骤描述】

0、安装步骤简述

       Hadoop的伪分布式安装主要概括为以下步骤:

       Linux环境的配置(IP, 主机名,hosts映射),安装配置JDK,安装配置hadoop,配置SSH免登陆等。

 

1、准备Linux环境(root用户操作)

1.1修改适配器设置

点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.234.255 子网掩码:255.255.255.0 -> apply -> ok

回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet8(NAT连接方式) -> 属性 -> 双击IPv4 -> 设置windows的IP:192.168.234.1 子网掩码:255.255.255.0 -> 点击确定

       在虚拟软件上 --My Computer -> 选中虚拟机 -> 右键 -> settings -> network adapter -> host only -> ok      

1.2关闭防火墙

查看防火墙状态

# service iptables status

关闭防火墙

# service iptables stop

查看防火墙开机启动状态

# chkconfig iptables --list

关闭防火墙开机启动

# chkconfig iptables off

1.3修改IP、主机名和hosts文件

1.3.1修改IP

两种方式:

第一种:通过Linux图形界面进行修改(强烈推荐)

       进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections -> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual -> 点击add按钮 -> 添加IP:192.168.1.101 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply

      

第二种:修改配置文件方式(屌丝程序猿专用)

       vim /etc/sysconfig/network-scripts/ifcfg-eth0

                    

       DEVICE="eth0"

       BOOTPROTO="static"               ###

       HWADDR="00:0C:29:3C:BF:E7"

       IPV6INIT="yes"

       NM_CONTROLLED="yes"

       ONBOOT="yes"

       TYPE="Ethernet"

       UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"

       IPADDR="192.168.234.8"           ###

       NETMASK="255.255.255.0"          ###

       GATEWAY="192.168.234.255"            ###

      

1.3.2修改主机名

(1)编辑/etc/sysconfig/network文件

# vim /etc/sysconfig/network

             

NETWORKING=yes

HOSTNAME=namenode01    ###

 

(2)使用hostname

# hostname namenode01

 

(3)重新登录使得新主机名生效

# logout

 

注意:修改datanode01和datanode02的节点的主机名也是这个步骤。

             

1.3.3修改主机名和IP的映射关系

编辑/etc/hosts文件。

# vim /etc/hosts                   

192.168.234.8 namenode01 (Namenode的IP地址与域名的映射)

192.168.234.11 datanode01 (第一个Datanode的IP地址与域名的映射)

192.168.234.12 datanode02 (第二个Datanode的IP地址与域名的映射)

 

1.4创建hadoop用户、用户组以及赋予权限

(1)创建用户和组

创建hadoop用户组hadoopGroup

# groupadd hadoopGroup

创建hadoop用户,并为其指定用户组,用户家目录

# useradd hadoop -g hadoopGroup -d /home/hadoop

(2)为hadoop用户赋予sudo权限

编辑“/etc/sudoers”文件,添加相关命令。

Allow root to run any commands anywhere

root    ALL=(ALL)   ALL

hadoop  ALL=(ALL)   ALL

 

1.4重启Linux

# shutdown -h now

 

2、安装JDK

2.1在【SecureSRT】中,按下“alt+p”后出现sftp窗口,然后put d:\xxx\yy\ll\jdk-7u_65-i585.tar.gz

      

2.2解压jdk

创建文件夹

# mkdir /home/hadoop/app

解压

# tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app

             

2.3将java添加到环境变量中

# vim /etc/profile

在文件最后添加

export JAVA_HOME=/home/hadoop/app/jdk1.7.0_55

export PATH=$PATH:$JAVA_HOME/bin

      

刷新配置

# source /etc/profile

             

3、安装hadoop2.4.1(hadoop用户操作)

注意01:在安装之前,要确保每台机器上都安装了JDK,配置了环境变量等。

注意02:将用户切换到hadoop用户。

注意03:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop伪分布式安装需要修改5个配置文件。

3.1配置hadoop(仅仅在单一节点配置,hadoop-server01)

第一个:hadoop-env.sh

       vim hadoop-env.sh

       #第27行

       export JAVA_HOME=/usr/java/jdk1.7.0_65

注意:原来的配置为“export JAVA_HOME=${ JAVA_HOME }”       ,是灵活的,在此要将其写死,因为原配置中,Hadoop可能会无法识别JAVA_HOME这个环境变量。

第二个:core-site.xml

core-site.xml

       该文件中配置了Hadoop运行时的一些“公共的参数”。

 

<configuration>

<!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->

       <property>

              <name>fs.defaultFS</name>

       <!--  配置namenode  -->

              <value>hdfs://namenode01:9000</value>

       </property>

 

       <!-- 指定hadoop运行时产生文件的存储目录 -->

       <property>

              <name>hadoop.tmp.dir</name>

              <value>/home/hadoop/app/hadoop-2.4.1/tmp</value>

    </property>

</configuration>

解释1:

hdfs://namenode01:9000”是一个URI,就像mysql的URI一样“jdbc:mysql://host:3306/db?if..”。

其中:

hdfs://”和“jdbc:mysql://”这两个开头都是一个“Schema”,“hdfs://”是Hadoop的协议。

 

解释2:

“hdfs://namenode01:9000”,Schema后边的部分为“namenode的地址(或者域名、主机名)和端口号”。

namenode01:为Namenode节点主机的主机名。

 

解释3:

“hadoop.tmp.dir”为hadoop的工作目录。Hadoop运行过程中产生的中间目录都放置在该文件夹下。

 

具体的参数配置,请参考:

http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/core-default.xml

             

第三个:hdfs-site.xml 

<!-- 指定HDFS副本的数量 -->

<property>

       <name>dfs.replication</name>

       <value>1</value>

</property>

 

hdfs-site.xml:具体规定hadoop工作的一些细节。

dfs.replication:指定HDFS副本的数量。

             

第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)

$ mv mapred-site.xml.template mapred-site.xml

$ vim mapred-site.xml

 

<!-- 指定mr运行在yarn上 -->

<property>

       <name>mapreduce.framework.name</name>

       <value>yarn</value>

</property>

 

             

第五个:yarn-site.xml

<!-- 指定YARN的老大(ResourceManager)的地址 -->

<property>

       <name>yarn.resourcemanager.hostname</name>

       <value>namenode01</value>

</property>

<!-- reducer获取数据的方式 -->

<property>

       <name>yarn.nodemanager.aux-services</name>

       <value>mapreduce_shuffle</value>

</property>

 

解释:

(1) “yarn.nodemanager.aux-services”:规定一些“从节点”的行为。

第六个:配置” etc/hadoop/slave”文件

作用:决定Hadoop在启动时,是否自动去启动从节点“datanode”。 

$ vim slaves

输入下列内容

namenode01

datanode01

datanode02

 

(1)将从节点“datanode”的信息写入到该文件中。

因为上边五个xml文件配置的都是namenode,或者yarn或者resourceManager等相关的信息,并没有配置与“从节点datanode”相关的信息,因此,在slaves中需要配置相关从节点的信息。

(2) 该文件不是必须配置的。

       若配置该文件,则在Hadoop启动的时候,可以Hadoop会自动启动“从节点datanode”,若没有配置,则可以通过手工的形式启动“从节点”。

 

3.2将hadoop添加到环境变量      

# vim /etc/proflie

export JAVA_HOME=/home/hadoop/app/jdk1.7.0_55

export HADOOP_HOME=/home/hadoop/app/hadoop-2.4.1      

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

 

# source /etc/profile

 

3.3远程拷贝:将已经配置完的单一节点的Hadoop配置拷贝到另外两台节点中

(1)已配置好的节点:

namenode01

(2)未配置的节点:

datanode01

datanode02

 

(3)目标:

将“namenode01”节点中已经配置好的Hadoop文件(/home/hadoop/app/hadoop-2.4.1)拷贝到节点“datanode01”和节点“datanode02”所对应的目录下。

 

(4)命令

[hadoop@ namenode01 app]$ pwd

/home/hadoop/app/hadoop-2.4.1

[hadoop@ namenode01 app]$ ls

hadoop-2.4.1

[hadoop@ namenode01 hadoop]$

scp -r hadoop-2.4.1/ hadoop@datanode01:/home/hadoop/app 

命令解析:

①scp:“Secure Copy”,一般用于“远程拷贝”。

②“hadoop@ datanode01”:表示拷贝到“datanode01”这台主机中的“hadoop用户”下目录“/home/hadoop/app”中去。

若没有“hadoop”这个字符串,则表示将文件拷贝到其他节点上的与“当前执行命令的用户名”相同的那个用户目录下。

 

拷贝之前注意:

注意01在执行远程拷贝之前,在远程机器上,必须确保已经完成了初步的环境配置:

配置完IP,hostname,IP与域名的映射文件,hadoop用户和用户组,hadoop用户密码等,hadoop用户主目录的权限。

注意02若主拷贝方节点与目标拷贝方节点上的两个用户之间的权限不一样,则无法完成系统拷贝。。

注意03若另一台节点中没有“app”目录,则要先创建该目录,再执行远程拷贝。

      

3.4格式化namenode(是对namenode进行初始化)

切换到目录:$HADOOP_HOME/bin中,使用其中的命令“hdfs”。

注意:在使用能够分布式文件系统(即启动hadoop)之前,一定能够要先格式化。

 

# hdfs namenode -format

      

若出现下述命令,则说明hadoop文件系统的格式化已经成功了。

15/03/20 13:07:38 INFO common.Storage: Storage directory /app/ha             doop-2.4.1/tmp/dfs/name has been successfully formatted.

15/03/20 13:07:39 INFO namenode.NNStorageRetentionManager: Going to              retain 1 images with txid >= 0

15/03/20 13:07:39 INFO util.ExitUtil: Exiting with status 0

15/03/20 13:07:39 INFO namenode.NameNode: SHUTDOWN_MSG:

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at namenode01/192.168.234.8

************************************************************/

 

所谓格式化也就是在用户自己创建的“$HADOOP/tmp”目录下,写入一些初始的元数据文件。格式化完毕后,会在$HADOOP_HOME/tmp/current目录下,生成HDFS的相关数据文件,如下所示。

[hadoop@namenode01 current]$ pwd

/home/hadoop/app/hadoop-2.4.1/tmp/dfs/name/current

[hadoop@namenode01 current]$ ls

edits_0000000000000000001-0000000000000000002

edits_0000000000000000003-0000000000000000005

fsimage_0000000000000000018

fsimage_0000000000000000018.md5

fsimage_0000000000000000020

fsimage_0000000000000000020.md5

seen_txid

VERSION

3.5启动hadoop

注意:在使用能够分布式文件系统之前,一定能够要先格式化。

先启动HDFS

sbin/start-dfs.sh             

再启动YARN

sbin/start-yarn.sh

             

或者也可以通过如下Web界面来确认HDFS是否启动成功:

若没有启动“start-dfs.sh”,则该界面是不能够成功启动的。

http://192.168.234.8:50070 (HDFS管理界面,显示NameNode信息)

http:// 192.168.234.8:8088 (MR管理界面)

3.6验证是否启动成功

使用jps命令验证

27408 NameNode

28218 Jps

27643 SecondaryNameNode

28066 NodeManager

27803 ResourceManager (这个进程代表YARN,是一个分布式的资源管理系统)

27512 DataNode                 

 

4、配置ssh免登陆

 

4.1 生成ssh免登陆密钥

进入到我的home目录

cd ~/.ssh 

ssh-keygen -t rsa (四个回车)

执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)

4.2拷贝公钥

将公钥拷贝到要免密登陆的目标机器上和本机上。

①ssh-copy-id datanode01

②ssh-copy-id datanode02

③ssh-copy-id namenode01

注意:千万不能忘了将密钥拷贝到“本机”上,在此,本机的主机名为:namenode01,否则,该配置将不会成功。

转载于:https://www.cnblogs.com/zjrodger/p/4939400.html

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

【原】Hadoop伪分布模式的安装 的相关文章

  • hadoop 连接在端口 9000 上被拒绝

    我想设置一个伪分布式模式的hadoop集群进行开发 由于端口 9000 上的连接被拒绝 尝试启动 hadoop 集群失败 这些是我的配置 非常标准 站点核心 xml
  • 如何从容器内部获取 YARN ContainerId?

    我正在 YARN 上运行 Spark 作业 并且希望获取 YARN 容器 ID 作为在一组 Spark 作业中生成唯一 ID 的要求的一部分 我可以看到容器 getId https hadoop apache org docs r2 6 0
  • AWS EMR S3DistCp: auxService:mapreduce_shuffle 不存在

    我通过 SSH 连接到 AWS EMR v5 4 0 实例 并且想要调用 s3distcp 这个链接 http docs aws amazon com emr latest ReleaseGuide UsingEMR s3distcp ht
  • 为什么Hadoop文件系统不支持随机I/O?

    分布式文件系统 例如 Google 文件系统和 Hadoop 不支持随机 I O 不能修改之前写入的文件 只能写入和追加 他们为什么要这样设计文件系统 该设计有哪些重要优点 P S 我知道 Hadoop 将支持修改写入的数据 但他们表示 它
  • 如何读取 RCFile

    我正在尝试将一个小的 RCFile 约 200 行数据 读入 HashMap 中以进行 Map Side 连接 但是在将文件中的数据变为可用状态时遇到了很多麻烦 这是我到目前为止所拥有的 其中大部分来自这个例子 http sumit1001
  • 使用 Hive 自定义输入格式

    Update 好吧 事实证明以下不起作用的原因是因为我使用的是较新版本的InputFormat API import org apache hadoop mapred这是旧的与import org apache hadoop mapredu
  • Hadoop YARN 作业陷入映射 0% 并减少 0%

    我正在尝试运行一个非常简单的作业来测试我的 hadoop 设置 所以我尝试使用 Word Count Example 它陷入了 0 所以我尝试了一些其他简单的作业 并且每个作业都陷入了困境 52191 0003 14 07 14 23 55
  • 如何获取hive中的数据库用户名和密码

    正在编写jdbc程序来连接hive数据库 我希望在连接 url 中提供用户名和密码 我不知道如何使用 hive QL 获取用户名和密码 有人可以帮我吗 Exception in thread main java sql SQLNonTran
  • 映射减少计数示例

    我的问题是关于mapreduce programming in java 假设我有 WordCount java 示例 一个标准mapreduce program 我希望map函数收集一些信息 并返回形成如下的reduce函数map
  • 在 Zookeeper 中创建路径的最有效方法,其中路径的根元素可能存在也可能不存在?

    想象一条路径 root child1 child2 child3 想象一下 在动物园管理员中 可能存在其中的一部分 比如 root child1 Zookeeper 中没有等效的 mkdir p 此外 如果任何一个操作失败 ZooKeepe
  • 是否可以直接从文件加载镶木地板表?

    如果我有一个二进制数据文件 可以转换为 csv 格式 有什么方法可以直接从中加载镶木地板表吗 许多教程显示将 csv 文件加载到文本表 然后从文本表加载到镶木地板表 从效率的角度来看 是否可以像我已有的那样直接从二进制文件加载镶木地板表 理
  • 使用自制软件安装hadoop时出错

    我正在尝试在 Mac 上本地安装 hadoop 但在尝试 brew install hadoop 时收到以下错误 brew install hadoop gt Downloading http www apache org dyn clos
  • 远程执行hadoop作业时出现异常

    我正在尝试在远程 hadoop 集群上执行 Hadoop 作业 下面是我的代码 Configuration conf new Configuration conf set fs default name hdfs server 9000 c
  • 使用 python 从 HDFS 获取文件名列表

    这里是 Hadoop 菜鸟 我搜索了一些有关 hadoop 和 python 入门的教程 但没有取得太大成功 我还不需要使用映射器和缩减器进行任何工作 但这更多是一个访问问题 作为Hadoop集群的一部分 HDFS 上有一堆 dat 文件
  • 如何使用新的 Hadoop API 来使用 MultipleTextOutputFormat?

    我想编写多个输出文件 如何使用 Job 而不是 JobConf 来执行此操作 创建基于密钥的输出文件名的简单方法 input data type key value cupertino apple sunnyvale banana cupe
  • 无法从 JAR 文件加载主类

    我有一个 Spark scala 应用程序 我尝试显示一条简单的消息 Hello my App 当我编译它时sbt compile并运行它sbt run没关系 我成功显示了我的消息 但他显示了错误 像这样 Hello my applicat
  • Hive 中字符串数据类型是否有最大大小?

    谷歌了很多 但没有在任何地方找到它 或者这是否意味着只要允许集群 Hive 就可以支持任意大字符串数据类型 如果是这样 我在哪里可以找到我的集群可以支持的最大字符串数据类型大小 提前致谢 Hive 列表的当前文档STRING作为有效的数据类
  • 在 Hadoop 中按文件中的值排序

    我有一个文件 其中每行包含一个字符串 然后是一个空格 然后是一个数字 例子 Line1 Word 2 Line2 Word1 8 Line3 Word2 1 我需要按降序对数字进行排序 然后将结果放入文件中 为数字分配排名 所以我的输出应该
  • 在 Hadoop 中处理带标头的文件

    我想在 Hadoop 中处理很多文件 每个文件都有一些头信息 后面跟着很多记录 每个记录都存储在固定数量的字节中 对此有何建议 我认为最好的解决方案是编写一个自定义的InputFormat http hadoop apache org co
  • Hadoop安装问题:

    我跟着this http www bogotobogo com Hadoop BigData hadoop Install on ubuntu single node cluster phpHadoop 安装教程 不幸的是 当我运行全部启动

随机推荐

  • Andriod监听支付宝收款实现个人支付宝支付接口!附安卓App

    首先呢 xff0c 我不会开发安卓App xff0c 这款APP是我在酷安网看到的 xff0c 非常简单的一款APP xff0c 安装后填写我们的后端接口 xff08 用于接收收款通知的 xff09 就可以接收收款通知了 所以就算我们没有这
  • 记一次异常排查过程:druid连接池抛出DataSourceDisableException

    为什么80 的码农都做不了架构师 xff1f gt gt gt 先交待下项目背景 xff0c 项目中有个功能是从mysql中获取数据库信息来创建数据库连接 xff0c 用的连接池是druid xff0c jar包版本是1 0 9 1 异常的
  • 3389、135、137、138、139、445等端口解释和关闭方法

    3389端口 xff1a 在服务器中 xff0c 3389端口的开放是必需的 xff0c 因为任何服务器的管理员如果想很好地管理自己的服务器 xff0c 都需要开启这种方便的网络管理服务 不过3389端口一旦开启 xff0c 必然会引来无数
  • 同一个mock 连续多次调用返回不同结果实现方式

    2019独角兽企业重金招聘Python工程师标准 gt gt gt 同一个mock 连续多次调用返回不同结果实现方式 Mockito when methodCall thenReturn 1x thenReturn 2x thenRetur
  • 特别策划:大学毕业生自主创业分析

    转 特别策划 大学毕业生自主创业分析 本期特别策划以 大学毕业生自主创业 为题 xff0c 主要分为两个部分 xff0c 第一部分对大学毕业生自主创业的分布与特点进行了研究分析 xff0c 第二部分为有意向自主创业的大学生提供建议 PART
  • vscode界面上最左边那一栏不见了

    查看 gt 外观 gt 显示活动栏
  • 论文下载&论文阅读方法(吴恩达教你读论文)

    标题 一 论文下载二 吴恩达读论文方法2 1 主体2 2 Math2 3 Coding 三 职业生涯四 给出的建议五 参考 一 论文下载 Source of paper twitter ML subreddit NIPS ICML ICLR
  • 基于有向距离场(SDF)的地图碰撞系统 | Cocos 技术派第15期

    近日 xff0c ID 为 kx dz 的开发者在 Cocos 中文社区分享了一篇名为 介绍一个基于有向距离场 SDF 的地图碰撞系统 的技术文章 xff0c 获得诸多好评 C姐第一时间联系到了作者 xff0c 在获得转载授权的同时 xff
  • SQL 查询当天,本月,本周的记录

    SELECT FROM 表 WHERE CONVERT Nvarchar dateandtime 111 61 CONVERT Nvarchar GETDATE 111 ORDER BY dateandtime DESC 本月记录 SELE
  • VC查找网页源码指定内容

    查找网页源码 xff0c 这段代码也可以作为获取外网IP xff0c 不过获取外网IP只需要前面一部分就行了 xff0c 把网页源码读到缓冲区就行了 CString SiteInfo SiteName 61 http www ip138 c
  • 笔试之内存分配问题

    需要知道的概念 xff1a 1 程序 xff1a 包括代码和数据 xff0c 是静态的概念 2 进程 xff1a 程序的执行过程 xff0c 是指一个程序中的代码在一个数据集合中的运行过程 xff0c 所以说相同代码在不同的数据集合上运行
  • 计算机视觉基础(三)——对极几何中的基本矩阵F和本质矩阵E

    计算机视觉中 xff0c 尤其是双视图几何中 xff0c 基本矩阵F和本质矩阵E扮演着重要角色 xff0c 今天我们就来简单了解一下它们吧 由于公式比较多 xff0c 所以直接在word中编辑好后整个截图过来了 xff08 参考书目 计算机
  • 使用docker搭建开发环境

    我的主力机是windows windows下面有太多提升效率的软件 但是开发的时候不得不使用linux 就单单开发而言 我还是喜欢使用linux 所以就造成了我得在windows下面使用虚拟机 这是最开始的办法 后面得知有vagrant这个
  • ROS的单线程Spinning和多线程Spinning

    单线程Spinning ros spin 是最简单的单线程自旋 它会一直调用直到结束 用法 ros spin 另一个单线程spinning是ros spinOnce 它定期调用等待在那个点上的所有回调 用法 ros spinOnce 简单的
  • antd 的form 表单怎么回显数据_antd Form表单的initialValue问题

    在initial中是有初始值的 xff0c 但是却不显示初始值 xff0c 请大佬解答一下这个问题 const formItem 61 type 3 label 39 柜子编号 39 name 39 ID 39 width 39 150px
  • echarts 与 highcharts

    一 xff0e 简介 echarts echarts是百度公司前端开发的一个图表库 xff0c 2013年发布第一版 xff0c 主要采用canvas画图 xff0c 目前版本3 8 4 xff1b 完全免费 xff1b highchart
  • c语言不同源文件变量,我在哪里可以在c程序中声明全局变量,无论是在头文件还是源文件中...

    本问题已经有最佳答案 xff0c 请猛点这里访问 嗨 xff0c 我是一个C 43 43 开发者 xff0c 现在我正在做C编程 我的问题是 xff0c 在C程序中 xff0c 哪个地方更好地声明全局变量 头文件或源文件 如果我的全局变量未
  • ***网址大全

    网址大全 最全的 国内 基地 http www hackbase com 帝国 http www darkup com 中国 联盟 http www chinahacker com起点 网络 http www qdhack com 边缘 h
  • 监控硬盘容量计算

    如何快速的计算摄像头一天存储量 摄像机的码流即监控视频流的带宽 xff0c 分为主码流和子码流 xff0c 主码流用来存储 xff0c 子码流一般用来预览 xff0c 所以录像回放时大家看到的视频质量要高于预览时看到的 在不同分辨率 帧率以
  • 【原】Hadoop伪分布模式的安装

    Hadoop伪分布模式的安装 环境参数 1 Host OS xff1a Win7 64bit 2 IDE xff1a Eclipse Version Luna Service Release 2 4 4 2 3 虚拟机 xff1a VMwa