FastDFS安装与配置

2023-11-06

FastDFS安装与配置

简介:FastDFS是一个开源的轻量级分布式文件系统,它对文件进行管理,功能包括:文件存储、文件同步、文件访问(文件上传、文件下载)等,解决了大容量存储和负载均衡的问题。特别适合以文件为载体的在线服务,如相册网站、视频网站等等。
FastDFS为互联网量身定制,充分考虑了冗余备份、负载均衡、线性扩容等机制,并注重高可用、高性能等指标,使用FastDFS很容易搭建一套高性能的文件服务器集群提供文件上传、下载等服务。

我们在两台机器上安装fastDfs.,两台机器的主机名配置信息如下:

编号 设备名 IP地址 操作系统
1 slaver2 192.168.50.202 centos7
2 slaver3 192.168.50.203 centos7

在跟踪节点slaver3和存储节点slaver2分别安装FastDfs

(1)下载安装FastDfs需要的包,并变异安装

$# sudo yum install make cmake gcc gcc-c++
$#  wget http://www.monkey.org/~provos/libevent-1.4.14b-stable.tar.gz 
$# tar -xzvf  libevent-1.4.14b-stable.tar.gz
$# cd libevent-1.4.14b-stable
$# ./configure –prefix=/usr
$# make
$# sudo make install 
#验证是否安装成功
$# ls -al /usr/lib | grep libevent

(2)首先下载fastDfs的包FastDFS_v3.06.tar.gz

$# tar -xzvf   FastDFS_v3.06.tar.gz
$# cd FastDFS
  •  

这里写图片描述

$# ./make.sh

$# sudo ./make install 
  •  

这里写图片描述
//此时表明fastDfs已经安装成功
tracker节点slaver3配置tracker.conf文件

#配置tracker server(Tracker Server配置)

#进入目录 
 $# cd /etc/fdfs/
 $# 创建fastdfs的保存信息等
$# sudo mkdir -p /home/sfs/fastdfs_tracker 
$# sudo mkdir -p /home/sfs/fastdfs_storage 
#编辑tracker.conf文件
sudo vi tracker.conf
#更改配置
base_path=/home/sfs/fastdfs_tracker (自己手动创建的目录,用来保存统计保存的文件信息的相关数据和对应的日志文件)

1.i
2.返回键删除,粘贴
3. esc
4. wq!
  •  

以下为修改后的tracker.conf文件

# is this config file disabled
# false for enabled
# true for disabled
disabled=false

# bind an address of this host
# empty for bind all addresses of this host
bind_addr=

# the tracker server port
port=22122

# connect timeout in seconds
# default value is 30s
connect_timeout=30

# network timeout in seconds
# default value is 30s
network_timeout=60

# the base path to store data and log files
#base_path=/home/yuqing/fastdfs
base_path=/home/sfs/fastdfs_tracker

# max concurrent connections this server supported
max_connections=256

# work thread count, should <= max_connections
# default value is 4
# since V2.00
work_threads=4

# the method of selecting group to upload files
# 0: round robin
# 1: specify group
# 2: load balance, select the max free space group to upload file
store_lookup=0

# which group to upload file
# when store_lookup set to 1, must set store_group to the group name
store_group=group2

# which storage server to upload file
# 0: round robin (default)
# 1: the first server order by ip address
# 2: the first server order by priority (the minimal)
store_server=0

# which path(means disk or mount point) of the storage server to upload file
# 0: round robin
# 2: load balance, select the max free space path to upload file
store_path=0

# which storage server to download file
# 0: round robin (default)
# 1: the source storage server which the current file uploaded to
download_server=0

# reserved storage space for system or other applications.
# if the free(available) space of any stoarge server in 
# a group <= reserved_storage_space, 
# no file can be uploaded to this group.
# bytes unit can be one of follows:
### G or g for gigabyte(GB)
### M or m for megabyte(MB)
### K or k for kilobyte(KB)
### no unit for byte(B)
reserved_storage_space = 4GB

#standard log level as syslog, case insensitive, value list:
### emerg for emergency
### alert
### crit for critical
### error
### warn for warning
### notice
### info
### debug
log_level=info

#unix group name to run this program, 
#not set (empty) means run by the group of current user
run_by_group=

#unix username to run this program,
#not set (empty) means run by current user
run_by_user=

# allow_hosts can ocur more than once, host can be hostname or ip address,
# "*" means match all ip addresses, can use range like this: 10.0.1.[1-15,20] or
# host[01-08,20-25].domain.com, for example:
# allow_hosts=10.0.1.[1-15,20]
# allow_hosts=host[01-08,20-25].domain.com
allow_hosts=*

# sync log buff to disk every interval seconds
# default value is 10 seconds
sync_log_buff_interval = 10

# check storage server alive interval seconds
check_active_interval = 120

# thread stack size, should >= 64KB
# default value is 64KB
thread_stack_size = 64KB

# auto adjust when the ip address of the storage server changed
# default value is true
storage_ip_changed_auto_adjust = true

# storage sync file max delay seconds
# default value is 86400 seconds (one day)
# since V2.00
storage_sync_file_max_delay = 86400

# the max time of storage sync a file
# default value is 300 seconds
# since V2.00
storage_sync_file_max_time = 300

# if use a trunk file to store several small files
# default value is false
# since V3.00
use_trunk_file = false 

# the min slot size, should <= 4KB
# default value is 256 bytes
# since V3.00
slot_min_size = 256

# the max slot size, should > slot_min_size
# store the upload file to trunk file when it's size <=  this value
# default value is 16MB
# since V3.00
slot_max_size = 16MB

# the trunk file size, should >= 4MB
# default value is 64MB
# since V3.00
trunk_file_size = 64MB

# if create trunk file advancely
# default value is false
trunk_create_file_advance = false

# the time base to create trunk file
# the time format: HH:MM
# default value is 02:00
trunk_create_file_time_base = 02:00

# the interval of create trunk file, unit: second
# default value is 38400 (one day)
trunk_create_file_interval = 86400

# the threshold to create trunk file
# when the free trunk file size less than the threshold, will create 
# the trunk files
# default value is 0
trunk_create_file_space_threshold = 20G


# HTTP settings
http.disabled=false

# HTTP port on this tracker server
http.server_port=8080

# check storage HTTP server alive interval seconds
# <= 0 for never check
# default value is 30
http.check_alive_interval=30

# check storage HTTP server alive type, values are:
#   tcp : connect to the storge server with HTTP port only, 
#        do not request and get response
#   http: storage check alive url must return http status 200
# default value is tcp
http.check_alive_type=tcp

# check storage HTTP server alive uri/url
# NOTE: storage embed HTTP server support uri: /status.html
http.check_alive_uri=/status.html

# if need find content type from file extension name
http.need_find_content_type=true

#use "#include" directive to include http other settings
##include http.conf

  •  
  •  

(3)store节点slaver2配置storeage.conf文件,修改它/etc/fdfs目录下的storage.conf
#配置storage server(Storage Server配置)

$# mkdir -p /home/sfs/fastdfs_tracker 
$# mkdir -p /home/sfs/fastdfs_storage 

#进入目录
$#  groupadd group1   #创建用户组
$# cd /etc/fdfs

#编辑storage.conf文件

$# vi storage.conf

#更改配置
group_name=group1 (用于存文件的组名,自己命名)

base_path=/home/sfs/fastdfs_storage 
(自己手动创建的目录,用来保存上传或下载的文件和对应的日志文件)

store_path0=/home/sfs/fastdfs_storage (配置与上面一致即可)

# tracker_server 多个则配置多行

tracker_server=slaver3:22122 (安装tracker_server的机器ip及tracker.conf文件中配置的端口,默认是22122)
  •  

以下为修改后的storage.conf文件

# is this config file disabled
# false for enabled
# true for disabled
disabled=false

# the name of the group this storage server belongs to
group_name=group1

# bind an address of this host
# empty for bind all addresses of this host
bind_addr=

# if bind an address of this host when connect to other servers 
# (this storage server as a client)
# true for binding the address configed by above parameter: "bind_addr"
# false for binding any address of this host
client_bind=true

# the storage server port
port=23000

# connect timeout in seconds
# default value is 30s
connect_timeout=30

# network timeout in seconds
# default value is 30s
network_timeout=60

# heart beat interval in seconds
heart_beat_interval=30

# disk usage report interval in seconds
stat_report_interval=60

# the base path to store data and log files
#base_path=/home/yuqing/fastdfs
base_path=/home/sfs/fastdfs_storage 
# max concurrent connections the server supported
# default value is 256
# more max_connections means more memory will be used
max_connections=256

# the buff size to recv / send data
# this parameter must more than 8KB
# default value is 64KB
# since V2.00
buff_size = 256KB

# work thread count, should <= max_connections
# work thread deal network io
# default value is 4
# since V2.00
work_threads=4

# if disk read / write separated
##  false for mixed read and write
##  true for separated read and write
# default value is true
# since V2.00
disk_rw_separated = true

# if read / write file directly
# if set to true, open file will add the O_DIRECT flag to avoid file caching
# by the file system. be careful to set this parameter.
# default value is false
disk_rw_direct = false

# disk reader thread count per store base path
# for mixed read / write, this parameter can be 0
# default value is 1
# since V2.00
disk_reader_threads = 1

# disk writer thread count per store base path
# for mixed read / write, this parameter can be 0
# default value is 1
# since V2.00
disk_writer_threads = 1

# when no entry to sync, try read binlog again after X milliseconds
# must > 0, default value is 200ms
sync_wait_msec=50

# after sync a file, usleep milliseconds
# 0 for sync successively (never call usleep)
sync_interval=0

# storage sync start time of a day, time format: Hour:Minute
# Hour from 0 to 23, Minute from 0 to 59
sync_start_time=00:00

# storage sync end time of a day, time format: Hour:Minute
# Hour from 0 to 23, Minute from 0 to 59
sync_end_time=23:59

# write to the mark file after sync N files
# default value is 500
write_mark_file_freq=500

# path(disk or mount point) count, default value is 1
store_path_count=1

# store_path#, based 0, if store_path0 not exists, it's value is base_path
# the paths must be exist
store_path0=/home/sfs/fastdfs_storage 
#store_path1=/home/yuqing/fastdfs2

# subdir_count  * subdir_count directories will be auto created under each 
# store_path (disk), value can be 1 to 256, default value is 256
subdir_count_per_path=256

# tracker_server can ocur more than once, and tracker_server format is
#  "host:port", host can be hostname or ip address
tracker_server=localhost:22122

#standard log level as syslog, case insensitive, value list:
### emerg for emergency
### alert
### crit for critical
### error
### warn for warning
### notice
### info
### debug
log_level=info

#unix group name to run this program, 
#not set (empty) means run by the group of current user
run_by_group=

#unix username to run this program,
#not set (empty) means run by current user
run_by_user=

# allow_hosts can ocur more than once, host can be hostname or ip address,
# "*" means match all ip addresses, can use range like this: 10.0.1.[1-15,20] or
# host[01-08,20-25].domain.com, for example:
# allow_hosts=10.0.1.[1-15,20]
# allow_hosts=host[01-08,20-25].domain.com
allow_hosts=*

# the mode of the files distributed to the data path
# 0: round robin(default)
# 1: random, distributted by hash code
file_distribute_path_mode=0

# valid when file_distribute_to_path is set to 0 (round robin), 
# when the written file count reaches this number, then rotate to next path
# default value is 100
file_distribute_rotate_count=100

# call fsync to disk when write big file
# 0: never call fsync
# other: call fsync when written bytes >= this bytes
# default value is 0 (never call fsync)
fsync_after_written_bytes=0

# sync log buff to disk every interval seconds
# must > 0, default value is 10 seconds
sync_log_buff_interval=10

# sync binlog buff / cache to disk every interval seconds
# default value is 60 seconds
sync_binlog_buff_interval=10

# sync storage stat info to disk every interval seconds
# default value is 300 seconds
sync_stat_file_interval=300

# thread stack size, should >= 512KB
# default value is 512KB
thread_stack_size=512KB

# the priority as a source server for uploading file.
# the lower this value, the higher its uploading priority.
# default value is 10
upload_priority=10

# the NIC alias prefix, such as eth in Linux, you can see it by ifconfig -a
# multi aliases split by comma. empty value means auto set by OS type
# default values is empty
if_alias_prefix=

# if check file duplicate, when set to true, use FastDHT to store file indexes
# 1 or yes: need check
# 0 or no: do not check
# default value is 0
check_file_duplicate=0

# namespace for storing file indexes (key-value pairs)
# this item must be set when check_file_duplicate is true / on
key_namespace=FastDFS

# set keep_alive to 1 to enable persistent connection with FastDHT servers
# default value is 0 (short connection)
keep_alive=0

# you can use "#include filename" (not include double quotes) directive to 
# load FastDHT server list, when the filename is a relative path such as 
# pure filename, the base path is the base path of current/this config file.
# must set FastDHT server list when check_file_duplicate is true / on
# please see INSTALL of FastDHT for detail
##include /home/yuqing/fastdht/conf/fdht_servers.conf


#HTTP settings
http.disabled=false

# use the ip address of this storage server if domain_name is empty,
# else this domain name will ocur in the url redirected by the tracker server
http.domain_name=

# the port of the web server on this storage server
http.server_port=8888

http.trunk_size=256KB

# if need find content type from file extension name
http.need_find_content_type=true

#use "#include" directive to include HTTP other settings
##include http.conf

  •  
  •  
  •  
  •  

(4)启动

tracker节点slaver3的开启


tracker server 和storage server,需要注意的是先启动tracker server。

#启动tracker server

sudo /usr/local/bin/fdfs_trackerd  /etc/fdfs/tracker.conf
此时如果报错如下

这里写图片描述
则建立软连接解决:

$#   ln -s /usr/lib/libevent-1.4.so.2 /usr/lib64/libevent-1.4.so.2
# 再次开启
$# sudo /usr/local/bin/fdfs_trackerd /etc/fdfs/tracker.conf 

#检验是否开启成功
$# netstat -nplt |grep 22122 

这里写图片描述

此时表明tracker节点已经开启成功了


# 存储节点节点slaver2的开启
#启动storage server
$# sudo /usr/local/bin/fdfs_storaged  /etc/fdfs/storage.conf
$# netstat -nplt |grep 23000

这里写图片描述

此时表明存储节点已经安装成功了

下面我们查看集群的信息

#测试安装查看信息
$# /usr/local/bin/fdfs_monitor /etc/fdfs/storage.conf

这里写图片描述
此时表明,fastDsfs的集群已经搭建完成。

(5)验证工作
现在我们来上传一张照片在测试,以验证整个集群已经搭建成功
我们在跟踪节点slaver3的root下穿件一个文件,内容为“helloo FastDfs”

$# vi test.txt
hello FastDfs

修改/etc/fdfs/client.conf
$#vi /etc/fdfs/client.conf
base_path=/home/sfs/fastdfs_tracker //御前面的跟踪节点的路径保持一直
tracker_server=slaver2:22122

#上传
$# /usr/local/bin/fdfs_upload_file  /etc/fdfs/client.conf  /root/test.txt

这里写图片描述
此时以上传完成

我们来到存储节点slaver2查看该文件是否可以访问到

cd /home/sfs/fastdfs_storage/data/00/00
vi wKgyylpTeonpM8s2AAAAC7UzAkk485.txt
  • 1
  • 2

这里写图片描述

这里写图片描述

我们发现他确实已经上传完成。至此整个FastDfs集群已经安装完毕,后续增加存储节点或者跟踪节点,只需要使他们的配置文件保持一致即可,非常方便快捷。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

FastDFS安装与配置 的相关文章

  • surf特征原理

    前言 也许我们使用过Uiautomator编写过自动化测试脚本 也许我们也使用过Monkey来测试过应用的稳定性 但在使用过程中总觉得有或多或小的问题 用Uiautomator写脚本 总觉得有时候控件没法识别 用Monkey来进行稳定性测试
  • 你应该掌握的七种回归技术

    摘要 本文解释了回归分析及其优势 重点总结了应该掌握的线性回归 逻辑回归 多项式回归 逐步回归 岭回归 套索回归 ElasticNet回归等七种最常用的回归技术及其关键要素 最后介绍了选择正确的回归模型的关键因素 编者按 回归分析是建模和分
  • A卡和N卡

    NVIDIA 全称为NVIDIA Corporation NASDAQ NVDA 官方中文名称英伟达 A卡 AMD的卡 N卡 英伟达的卡 DirectXDirectCompute对手是OpenGL opencl 对手是cuda AMD的卡特
  • 色温

    色温是表示光线中包含颜色成分的一个计量单位 从理论上说 黑体温度指绝对黑体从绝对零度 273 开始加温后所呈现的颜色 黑体在受热后 逐渐由黑变红 转黄 发白 最后发出蓝色光 当加热到一定的温度 黑体发出的光所含的光谱成分 就称为这一温度下的
  • 理解图像卷积操作的意义

    参考 http blog csdn net chaipp0607 article details 72236892 locationNum 9 fps 1 理解图像卷积操作的意义 标签 图像处理图像卷积 2017 05 16 22 40 4
  • 匈牙利算法

    趣写算法系列之 匈牙利算法 匈牙利算法是由匈牙利数学家Edmonds于1965年提出 因而得名 匈牙利算法是基于Hall定理中充分性证明的思想 它是部图匹配最常见的算法 该算法的核心就是寻找增广路径 它是一种用增广路径求二分图最大匹配的算法
  • 时域和空域和频域

    傅立叶变换是f t 乘以正弦项的展开 正弦项的频率由u 其实是miu 的值决定 因为积分后左边剩下的为一变量是频率 所以我们说傅立叶变换域是频率域 数字图像处理 冈萨雷斯 中文第三版P128 当变量t用于说明图像时 我们一般将变量t的域称为
  • 圆检测学习笔记

    目录 边缘检测 再检测圆 霍夫圆检测 转自 深度OpenCV开发之精准找圆 GitHub zikai1 CircleDetection circle detection inscribed triangles image processin
  • cnn图像质量评价

    参考 https blog csdn net moxibingdao article details 107096783 上面左图为原图 中间为经过JPEG2000压缩后的图 右图为高斯模糊后的图 从清晰度来讲 肯定第一幅图质量更高 质量评
  • 人像抠图学习笔记

    目录 人脸分割BiseNetV2 u2net 人脸分割BiseNetV2 宣传的 BiSeNet V2出来了 72 6 的mIOU 156FPS的速度 让分割飞起来 模型30多m TensorFlow平台的 cpu版时间80ms 人脸抠图
  • FastDFS安装与配置

    FastDFS安装与配置 简介 FastDFS是一个开源的轻量级分布式文件系统 它对文件进行管理 功能包括 文件存储 文件同步 文件访问 文件上传 文件下载 等 解决了大容量存储和负载均衡的问题 特别适合以文件为载体的在线服务 如相册网站
  • pww区域连接特征提取算法

    主题思想 任何一个图像 肯定由多个或一个区域 每个区域在横向扫描时 会有分裂和合并 比如圆环 顶部有一个分裂点 底部有一个合并点 没有分裂合并的图形 就是简单的凸图像 很容易通过外形识别 而复杂的图像 就是凹的 就需要分裂合并点来识别 旋转
  • 3d指向检测 ros_3d_pointing_detection

    Introduction The workflow of this project is Detect 2D human joints from color image by Openpose Compute 3D human joints
  • mediapipe face_mesh测试

    目录 onnx测试 tensorflow预测tflite代码 onnx测试 img path r D data val result 1212 test 1 2 02370 1 jpg img path r D data face 1212
  • 深度学习 图像融合使用笔记 2023 harmonized

    目录 cvpr2023 INR Harmonization即将开源 CDTnet没开源 DCCF 图像滤镜 变色 pil灰度图转opencv
  • opencv光流Optical Flow

    光流Optical Flow 现在四轴飞行器越来越火 如何在室内进行定位呢 不同于传统四轴的姿态控制 电机驱动 室外定位 都有了一套完整的方案 室内定位还是没有完全成熟 目前大四轴可以利用的GPS定高 小四轴比较成熟的也就是光流方案了 先看
  • 视频稳像(Video Stabilization)

    原文 https blog csdn net hjl240 article details 52683738 开源 关键词 Video Stabilization 不错 https github com yaochih awesome vi
  • vlfeat 特征检测

    https blog csdn net wangxinsheng0901 article details 79676081 https github com dougalsutherland vlfeat ctypes
  • 特征值和特征向量的几何和物理意义

    原文 http blog 163 com renguangqian 126 blog static 1624014002011711114526759 FUCk 相见很晚 如果大学期间遇到这样的文章 线代必须90分以上 特征值和特征向量的几
  • 无法解析的外部符号 “public: __cdecl nvinfer1::YoloPluginCreator::YoloPluginCreator

    无法解析的外部符号 public cdecl nvinfer1 YoloPluginCreator YoloPluginCreator 解决方法1 不选择c 项目 而选择建一个nvidia runtime项目 自动就带有了 解决方法2 在V

随机推荐

  • LRU算法的详细介绍与实现

    1 背景 LRU least recently used 最近最少使用算法 是一种内存数据淘汰策略 使用常见是当内存不足时 需要淘汰最近最少使用的数据 LRU常用语缓存系统的淘汰策略 2 LRU原理 LRU最早实在操作系统接触到这个算法的
  • Python Day6-元组-操作-拷贝

    Python元组 操作 拷贝 Python的元组与列表类似 不同之处在于元组的元素不能修改 元组中的元素也不能被删除 但可以删除整个元组 元组使用小括号 列表使用方括号 元组创建 只需要在括号中添加元素 并使用逗号隔开即可 1 元组的定义
  • 五人合伙最佳股份分配_老板要懂的股权合伙,懂股权者懂人心,合理分配得人心...

    1 合伙人股份分配协议分红 两人合伙 出钱不出力 出钱又出力 股份这样算 两人合伙开公司 A出资60万 不干活 B出资40万 全职无休 他们的股份该怎么计算 如果按资金占总股比例为60 人力占总股比例为40 来分配股权 A的资金股就是60万
  • Xmrig挖矿木马排查过程,xmrig占用大量CPU

    1 通过top发现xmrig占用了大量cpu 2 通过网上搜索发现是挖矿木马 3 尝试直接kill发现杀死之后又会自动重启 4 查找find name xmrig 文件 或者程序信息 ps aux grep xmrig 找到安装目录并将其删
  • Caffe:CPU模式下使用Intel MKL

    转自 https blog csdn net 10km article details 52724477 下载安装Intel MKL 打开这里Intel Math Kernel Library Intel MKL 点击 Get This L
  • MySQL索引机制(详细+原理+解析)

    MySQL索引机制 永远年轻 永远热泪盈眶 一 索引的类型与常见的操作 前缀索引 MySQL 前缀索引能有效减小索引文件的大小 提高索引的速度 但是前缀索引也有它的坏处 MySQL 不能在 ORDER BY 或 GROUP BY 中使用前缀
  • SDL教程零基础入门 简单操作 day1

    1 0 SDL 简介 文章目录 1 0 SDL 简介 1 1 什么是 SDL 1 2 SDL 可以做什么 2 在VS上获取和安装 SDL 2 1 SDL2库下载 2 2 安装SDL2 2 3 在Visual Studio中使用SDL 3 S
  • 浏览器播放rtsp视频流:2、ffmpeg转hls播放(go后端利用hls做简单视频直播)

    浏览器播放rtsp视频流 2 ffmpeg转hls播放 go后端利用hls做简单视频直播 文章目录 浏览器播放rtsp视频流 2 ffmpeg转hls播放 go后端利用hls做简单视频直播 1 前言 2 wsl安装ffmpeg并转换rtsp
  • Android性能优化之应用瘦身(APK瘦身)

    关于作者 CSDN内容合伙人 技术专家 从零开始做日活千万级APP 专注于分享各领域原创系列文章 擅长java后端 移动开发 人工智能等 希望大家多多支持 目录 一 导读 二 概览 2 1 apk组成 三 优化方向 3 1 源代码 3 1
  • Leetcode[数组] 买卖股票的最佳时机 II - 贪心算法

    0 题目描述 leetcode原题链接 买卖股票的最佳时机 II 1 贪心算法 class Solution def maxProfit self prices List int gt int maxprofit 0 for i in ra
  • C# 委托监控属性变量

    C 委托监控属性变量 一 委托 二 示例 三 参考 四 总结 一 委托 C 的委托类似函数指针 可以用于定义回调方法 一个委托可以代理多个被调的方法 二 示例 using System using System Collections Ge
  • QT 在Windows下显示中文乱码的问题

    前一段时间刚刚使用qt在显示表格数据的时候 发现输出中文是乱码的 比如在显示字符串加上变量输出的的时候一般在MFC方法有很多 但是在QT上初始化字符串加上变量的话就得这么写 QString 第 1跟 arg 16 i 但是这样的话 中文就会
  • js for in遍历对象_JS中轻松遍历对象属性的几种方式

    原文 https dmitripavlutin com how to iterate easily over object properties in javascript 译者 前端小智 为了保证的可读性 本文采用意译而非直译 想阅读更多
  • Docker存储卷

    文章目录 Docker存储卷 1 COW机制 2 什么是存储卷 3 使用存储卷的好处 4 为什么要使用存储卷 5 存储卷管理方式 6 存储卷的分类 7 容器数据管理 7 1 在容器中使用数据卷 7 2 数据卷容器 7 3 利用数据卷容器迁移
  • [导入]开通微软网络硬盘的方法

    看到我帅谁爱发的帖子 转来和大家看看 现在只要进入Live Skydrive 主页 http skydrive live com 用自己hotmail MSN 或Live 帐号登录之后 就可以看到系统的注册提示了 接受协议之后立马即可开通W
  • 从KMP算法到AC自动机

    本文档内容参考以下文档整理而成 kpm算法 http www ruanyifeng com blog 2013 05 Knuth E2 80 93Morris E2 80 93Pratt algorithm html AC自动机 https
  • 【网络编程】套接字

    文章目录 1 实现简单的UDP网络程序 实现英译汉功能 1 1UDP传输接口 1 1 1sendto函数原型 1 1 2 recvfrom函数 1 2封装UdpSocket 1 3UDP通用服务器 1 4实现英汉翻译服务器 1 5UDP通用
  • Java 基础系列(二) --- Java对象的比较,搞懂这些就够了

    Java中的重难点 对象的比较 一 对象的初步认知 1 C语言与Java我们需要知道这些 1 1 面向过程 1 2 面向对象 1 3 重点 2 类与对象总结 二 元素的比较 1 基本类型的比较 2 对象的比较 三 对象的比较 1 覆写基类e
  • 【学习填坑之路】FBX-SDK环境搭建及测试

    工作原因记录一下环境搭建 下载并安装FBX SDK 首先下载并安装FBX SDK 点击AutoDesk官网下载 下载后安装运行程序即可 根据自己的Visual Studio版本选择Windows的FBX SDK版本下载安装文件 运行安装程序
  • FastDFS安装与配置

    FastDFS安装与配置 简介 FastDFS是一个开源的轻量级分布式文件系统 它对文件进行管理 功能包括 文件存储 文件同步 文件访问 文件上传 文件下载 等 解决了大容量存储和负载均衡的问题 特别适合以文件为载体的在线服务 如相册网站