redis5.0的主从跟哨兵

2023-05-16

redis的主从跟哨兵
安装redis-5.0.12
#下载地址:https://download.redis.io/releases/

1.下载安装redis 
[root@master01 ~]# cd /opt/
[root@master01 opt]# wget https://download.redis.io/releases/redis-5.0.12.tar.gz
[root@master01 opt]# tar -zxf redis-5.0.12.tar.gz  
[root@master01 opt]# cd redis-5.0.12

#查看README.md 文件,主要是make ,make install,因为redis源码包里里面已经有Makefile 文件,
  所以不需要configure,所有make执行的操作都是按照Makefile 文件去执行


[root@master01 redis-5.0.12]# vi Makefile  
# Top level makefile, the real shit is at src/Makefile

default: all

.DEFAULT:
        cd src && $(MAKE) $@   #$@:表示所有脚本参数的内容. 如果是执行make MALLOC=libc,这里的$@就表示:MALLOC=libc,相当于进入src目录下执行,
                                 src目录也有Makefile 文件,这个时候make 就会按照当前目录下的Makefile 文件去执行。

install:
        cd src && $(MAKE) $@

.PHONY: install

[root@master01 redis-5.0.12]# cd src
[root@master01 src]# cat Makefile

#编译与安装,直接就在src目录的Makefile文件去执行
[root@master01 redis-5.0.12]# make MALLOC=libc

#执行make install就能看出效果,
[root@master01 redis-5.0.12]# make install
cd src && make install      #执行make install,就会按照当前目录下的Makefile执行,cd src && make install,这里的install,就会按照src目录下makefile里面定义install操作去执行。
make[1]: 进入目录“/opt/redis-5.0.12/src”

Hint: It's a good idea to run 'make test' ;)

    INSTALL install
    INSTALL install
    INSTALL install
    INSTALL install
    INSTALL install
make[1]: 离开目录“/opt/redis-5.0.12/src”

#也可以卸载
[root@master01 redis-5.0.12]# make uninstall

2.配置单点redis
#命令都在src目录下
[root@master01 redis-5.0.12]# ll src/redis*

#配置文件详解
#是否在后台执行,yes:后台运行;no:不是后台运行
 daemonize yes
#是否开启保护模式,默认开启。要是配置里没有指定bind和密码。开启该参数后,redis只会本地进行访问,拒绝外部访问。
 protected-mode yes
#redis的进程文件
 pidfile /var/run/redis_6379.pid
#redis监听的端口号。
 port 6379
#此参数确定了TCP连接中已完成队列(完成三次握手之后)的长度, 当然此值必须不大于Linux系统定义的/proc/sys/net/core/somaxconn值,默认是511,而Linux的默认参数值是128。当系统并发量大并且客户端速度缓慢的时候,可以将这二个参数一起参考设定。该内核参数默认值一般是128,对于负载很大的服务程序来说大大的不够。一般会将它修改为2048或者更大。在/etc/sysctl.conf中添加:net.core.somaxconn = 2048,然后在终端中执行sysctl -p。
 tcp-backlog 511
#指定 redis 只接收来自于该 IP 地址的请求,如果不进行设置,那么将处理所有请求
 bind 0.0.0.0
#配置unix socket来让redis支持监听本地连接。
 unixsocket /var/run/redis/redis.sock
#配置unix socket使用文件的权限
 unixsocketperm 700
# 此参数为设置客户端空闲超过timeout,服务端会断开连接,为0则服务端不会主动断开连接,不能小于0。
 timeout 0
#tcp keepalive参数。如果设置不为0,就使用配置tcp的SO_KEEPALIVE值,使用keepalive有两个好处:检测挂掉的对端。降低中间设备出问题而导致网络看似连接却已经与对端端口的问题。在Linux内核中,设置了keepalive,redis会定时给对端发送ack。检测到对端关闭需要两倍的设置值。
 tcp-keepalive 0
#指定了服务端日志的级别。级别包括:debug(很多信息,方便开发、测试),verbose(许多有用的信息,但是没有debug级别信息多),notice(适当的日志级别,适合生产环境),warn(只有非常重要的信息)
 loglevel notice 
#指定了记录日志的文件。空字符串的话,日志会打印到标准输出设备。后台运行的redis标准输出是/dev/null。
 logfile /var/log/redis/redis-server.log
#是否打开记录syslog功能
 syslog-enabled no
#syslog的标识符。
 syslog-ident redis
#日志的来源、设备
 syslog-facility local0
#数据库的数量,默认使用的数据库是DB 0。可以通过SELECT命令选择一个db
 databases 16
# redis是基于内存的数据库,可以通过设置该值定期写入磁盘。
# 注释掉“save”这一行配置项就可以让保存数据库功能失效
# 900秒(15分钟)内至少1个key值改变(则进行数据库保存--持久化)
 save 900 1 
# 300秒(5分钟)内至少10个key值改变(则进行数据库保存--持久化)
 save 300 10 
# 60秒(1分钟)内至少10000个key值改变(则进行数据库保存--持久化)
 save 60 10000
#当RDB持久化出现错误后,是否依然进行继续进行工作,yes:不能进行工作,no:可以继续进行工作,可以通过info中的rdb_last_bgsave_status了解RDB持久化是否有错误
 stop-writes-on-bgsave-error yes 
#使用压缩rdb文件,rdb文件压缩使用LZF压缩算法,yes:压缩,但是需要一些cpu的消耗。no:不压缩,需要更多的磁盘空间
 rdbcompression yes
#是否校验rdb文件。从rdb格式的第五个版本开始,在rdb文件的末尾会带上CRC64的校验和。这跟有利于文件的容错性,但是在保存rdb文件的时候,会有大概10%的性能损耗,所以如果你追求高性能,可以关闭该配置。
 rdbchecksum yes
#rdb文件的名称
 dbfilename dump.rdb  
#数据目录,数据库的写入会在这个目录。rdb、aof文件也会写在这个目录
 dir /var/lib/redis
 
############################## 主从复制 ###########################

#复制选项,slave复制对应的master。
# slaveof <masterip> <masterport>
#如果master设置了requirepass,那么slave要连上master,需要有master的密码才行。masterauth就是用来配置master的密码,这样可以在连上master后进行认证。
 masterauth <master-password>
#当从库同主机失去连接或者复制正在进行,从机库有两种运行方式:1) 如果slave-serve-stale-data设置为yes(默认设置),从库会继续响应客户端的请求。2) 如果slave-serve-stale-data设置为no,除去INFO和SLAVOF命令之外的任何请求都会返回一个错误”SYNC with master in progress”。
 slave-serve-stale-data yes
#作为从服务器,默认情况下是只读的(yes),可以修改成NO,用于写(不建议)。
 slave-read-only yes
#是否使用socket方式复制数据。目前redis复制提供两种方式,disk和socket。如果新的slave连上来或者重连的slave无法部分同步,就会执行全量同步,master会生成rdb文件。有2种方式:disk方式是master创建一个新的进程把rdb文件保存到磁盘,再把磁盘上的rdb文件传递给slave。socket是master创建一个新的进程,直接把rdb文件以socket的方式发给slave。disk方式的时候,当一个rdb保存的过程中,多个slave都能共享这个rdb文件。socket的方式就的一个个slave顺序复制。在磁盘速度缓慢,网速快的情况下推荐用socket方式。
 repl-diskless-sync no
#diskless复制的延迟时间,防止设置为0。一旦复制开始,节点不会再接收新slave的复制请求直到下一个rdb传输。所以最好等待一段时间,等更多的slave连上来。
 repl-diskless-sync-delay 5
#slave根据指定的时间间隔向服务器发送ping请求。时间间隔可以通过 repl_ping_slave_period 来设置,默认10秒。
 repl-ping-slave-period 10
#复制连接超时时间。master和slave都有超时时间的设置。master检测到slave上次发送的时间超过repl-timeout,即认为slave离线,清除该slave信息。slave检测到上次和master交互的时间超过repl-timeout,则认为master离线。需要注意的是repl-timeout需要设置一个比repl-ping-slave-period更大的值,不然会经常检测到超时。
 repl-timeout 60
#是否禁止复制tcp链接的tcp nodelay参数,可传递yes或者no。默认是no,即使用tcp nodelay。如果master设置了yes来禁止tcp nodelay设置,在把数据复制给slave的时候,会减少包的数量和更小的网络带宽。但是这也可能带来数据的延迟。默认我们推荐更小的延迟,但是在数据量传输很大的场景下,建议选择yes。
 repl-disable-tcp-nodelay no
#复制缓冲区大小,这是一个环形复制缓冲区,用来保存最新复制的命令。这样在slave离线的时候,不需要完全复制master的数据,如果可以执行部分同步,只需要把缓冲区的部分数据复制给slave,就能恢复正常复制状态。缓冲区的大小越大,slave离线的时间可以更长,复制缓冲区只有在有slave连接的时候才分配内存。没有slave的一段时间,内存会被释放出来,默认1m。
 repl-backlog-size 5mb
#master没有slave一段时间会释放复制缓冲区的内存,repl-backlog-ttl用来设置该时间长度。单位为秒。
 repl-backlog-ttl 3600
#当master不可用,Sentinel会根据slave的优先级选举一个master。最低的优先级的slave,当选master。而配置成0,永远不会被选举。
 slave-priority 100
#redis提供了可以让master停止写入的方式,如果配置了min-slaves-to-write,健康的slave的个数小于N,mater就禁止写入。master最少得有多少个健康的slave存活才能执行写命令。这个配置虽然不能保证N个slave都一定能接收到master的写操作,但是能避免没有足够健康的slave的时候,master不能写入来避免数据丢失。设置为0是关闭该功能。
 min-slaves-to-write 3
#延迟小于min-slaves-max-lag秒的slave才认为是健康的slave。
 min-slaves-max-lag 10
# 设置1或另一个设置为0禁用这个特性。

############### 安全相关 ###############
#requirepass配置可以让用户使用AUTH命令来认证密码,才能使用其他命令。这让redis可以使用在不受信任的网络中。为了保持向后的兼容性,可以注释该命令,因为大部分用户也不需要认证。使用requirepass的时候需要注意,因为redis太快了,每秒可以认证15w次密码,简单的密码很容易被攻破,所以最好使用一个更复杂的密码。注意只有密码没有用户名。
 requirepass foobared
#把危险的命令给修改成其他名称。比如CONFIG命令可以重命名为一个很难被猜到的命令,这样用户不能使用,而内部工具还能接着使用。
 rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52
#设置成一个空的值,可以禁止一个命令
 rename-command CONFIG ""
 
############### 进程限制相关 ###############
# 设置能连上redis的最大客户端连接数量。默认是10000个客户端连接。由于redis不区分连接是客户端连接还是内部打开文件或者和slave连接等,所以maxclients最小建议设置到32。如果超过了maxclients,redis会给新的连接发送’max number of clients reached’,并关闭连接。
 maxclients 10000
#redis配置的最大内存容量。当内存满了,需要配合maxmemory-policy策略进行处理。注意slave的输出缓冲区是不计算在maxmemory内的。所以为了防止主机内存使用完,建议设置的maxmemory需要更小一些。
 maxmemory <bytes>
#内存容量超过maxmemory后的处理策略。
#volatile-lru:利用LRU算法移除设置过过期时间的key。
#volatile-random:随机移除设置过过期时间的key。
#volatile-ttl:移除即将过期的key,根据最近过期时间来删除(辅以TTL)
#allkeys-lru:利用LRU算法移除任何key。
#allkeys-random:随机移除任何key。
#noeviction:不移除任何key,只是返回一个写错误。
#上面的这些驱逐策略,如果redis没有合适的key驱逐,对于写命令,还是会返回错误。redis将不再接收写请求,只接收get请求。写命令包括:set setnx setex append incr decr rpush lpush rpushx lpushx linsert lset rpoplpush sadd sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby zunionstore zinterstore hset hsetnx hmset hincrby incrby decrby getset mset msetnx exec sort。
# maxmemory-policy noeviction
  
#lru检测的样本数。使用lru或者ttl淘汰算法,从需要淘汰的列表中随机选择sample个key,选出闲置时间最长的key移除。
 maxmemory-samples 5

 ############### APPEND ONLY 持久化方式 ###############
  
#默认redis使用的是rdb方式持久化,这种方式在许多应用中已经足够用了。但是redis如果中途宕机,会导致可能有几分钟的数据丢失,根据save来策略进行持久化,Append Only File是另一种持久化方式,可以提供更好的持久化特性。Redis会把每次写入的数据在接收后都写入 appendonly.aof 文件,每次启动时Redis都会先把这个文件的数据读入内存里,先忽略RDB文件。
 appendonly no
#aof文件名
 appendfilename "appendonly.aof"
#aof持久化策略的配置
#no表示不执行fsync,由操作系统保证数据同步到磁盘,速度最快。
#always表示每次写入都执行fsync,以保证数据同步到磁盘。
#everysec表示每秒执行一次fsync,可能会导致丢失这1s数据。
 appendfsync everysec
# 在aof重写或者写入rdb文件的时候,会执行大量IO,此时对于everysec和always的aof模式来说,执行fsync会造成阻塞过长时间,no-appendfsync-on-rewrite字段设置为默认设置为no。如果对延迟要求很高的应用,这个字段可以设置为yes,否则还是设置为no,这样对持久化特性来说这是更安全的选择。设置为yes表示rewrite期间对新写操作不fsync,暂时存在内存中,等rewrite完成后再写入,默认为no,建议yes。Linux的默认fsync策略是30秒。可能丢失30秒数据。
 no-appendfsync-on-rewrite no
#aof自动重写配置。当目前aof文件大小超过上一次重写的aof文件大小的百分之多少进行重写,即当aof文件增长到一定大小的时候Redis能够调用bgrewriteaof对日志文件进行重写。当前AOF文件大小是上次日志重写得到AOF文件大小的二倍(设置为100)时,自动启动新的日志重写过程。
 auto-aof-rewrite-percentage 100
#设置允许重写的最小aof文件大小,避免了达到约定百分比但尺寸仍然很小的情况还要重写
 auto-aof-rewrite-min-size 64mb
#aof文件可能在尾部是不完整的,当redis启动的时候,aof文件的数据被载入内存。重启可能发生在redis所在的主机操作系统宕机后,尤其在ext4文件系统没有加上data=ordered选项(redis宕机或者异常终止不会造成尾部不完整现象。)出现这种现象,可以选择让redis退出,或者导入尽可能多的数据。如果选择的是yes,当截断的aof文件被导入的时候,会自动发布一个log给客户端然后load。如果是no,用户必须手动redis-check-aof修复AOF文件才可以。
 aof-load-truncated yes

############### LUA SCRIPTING ###############
 
# 如果达到最大时间限制(毫秒),redis会记个log,然后返回error。当一个脚本超过了最大时限。只有SCRIPT KILL和SHUTDOWN NOSAVE可以用。第一个可以杀没有调write命令的东西。要是已经调用了write,只能用第二个命令杀。
 lua-time-limit 5000 
 
 ############### 集群相关 ###############
  
#集群开关,默认是不开启集群模式。
 cluster-enabled yes
#集群配置文件的名称,每个节点都有一个集群相关的配置文件,持久化保存集群的信息。这个文件并不需要手动配置,这个配置文件有Redis生成并更新,每个Redis集群节点需要一个单独的配置文件,请确保与实例运行的系统中配置文件名称不冲突
 cluster-config-file nodes-6379.conf
#节点互连超时的阀值。集群节点超时毫秒数
 cluster-node-timeout 15000
#在进行故障转移的时候,全部slave都会请求申请为master,但是有些slave可能与master断开连接一段时间了,导致数据过于陈旧,这样的slave不应该被提升为master。该参数就是用来判断slave节点与master断线的时间是否过长。判断方法是:
#比较slave断开连接的时间和(node-timeout * slave-validity-factor) + repl-ping-slave-period
#如果节点超时时间为三十秒, 并且slave-validity-factor为10,假设默认的repl-ping-slave-period是10秒,即如果超过310秒slave将不会尝试进行故障转移 
 cluster-slave-validity-factor 10
#master的slave数量大于该值,slave才能迁移到其他孤立master上,如这个参数若被设为2,那么只有当一个主节点拥有2 个可工作的从节点时,它的一个从节点会尝试迁移。
 cluster-migration-barrier 1
#默认情况下,集群全部的slot有节点负责,集群状态才为ok,才能提供服务。设置为no,可以在slot没有全部分配的时候提供服务。不建议打开该配置,这样会造成分区的时候,小分区的master一直在接受写请求,而造成很长时间数据不一致。
 cluster-require-full-coverage yes
  
############### SLOW LOG 慢查询日志 ###############
###slog log是用来记录redis运行中执行比较慢的命令耗时。当命令的执行超过了指定时间,就记录在slow log中,slog log保存在内存中,所以没有IO操作。
#执行时间比slowlog-log-slower-than大的请求记录到slowlog里面,单位是微秒,所以1000000就是1秒。注意,负数时间会禁用慢查询日志,而0则会强制记录所有命令。
 slowlog-log-slower-than 10000
#慢查询日志长度。当一个新的命令被写进日志的时候,最老的那个记录会被删掉。这个长度没有限制。只要有足够的内存就行。你可以通过 SLOWLOG RESET 来释放内存。
 slowlog-max-len 128
  
 ############### 延迟监控 ###############
#延迟监控功能是用来监控redis中执行比较缓慢的一些操作,用LATENCY打印redis实例在跑命令时的耗时图表。只记录大于等于下边设置的值的操作。0的话,就是关闭监视。默认延迟监控功能是关闭的,如果你需要打开,也可以通过CONFIG SET命令动态设置。
 latency-monitor-threshold 0

############### EVENT NOTIFICATION 订阅通知 ###############
#键空间通知使得客户端可以通过订阅频道或模式,来接收那些以某种方式改动了 Redis 数据集的事件。因为开启键空间通知功能需要消耗一些 CPU ,所以在默认配置下,该功能处于关闭状态。
#notify-keyspace-events 的参数可以是以下字符的任意组合,它指定了服务器该发送哪些类型的通知:
##K 键空间通知,所有通知以 __keyspace@__ 为前缀
##E 键事件通知,所有通知以 __keyevent@__ 为前缀
##g DEL 、 EXPIRE 、 RENAME 等类型无关的通用命令的通知
##$ 字符串命令的通知
##l 列表命令的通知
##s 集合命令的通知
##h 哈希命令的通知
##z 有序集合命令的通知
##x 过期事件:每当有过期键被删除时发送
##e 驱逐(evict)事件:每当有键因为 maxmemory 政策而被删除时发送
##A 参数 g$lshzxe 的别名
#输入的参数中至少要有一个 K 或者 E,否则的话,不管其余的参数是什么,都不会有任何 通知被分发。详细使用可以参考http://redis.io/topics/notifications
 notify-keyspace-events ""
 
 ############### ADVANCED CONFIG 高级配置 ###############
#数据量小于等于hash-max-ziplist-entries的用ziplist,大于hash-max-ziplist-entries用hash
 hash-max-ziplist-entries 512
#value大小小于等于hash-max-ziplist-value的用ziplist,大于hash-max-ziplist-value用hash。
 hash-max-ziplist-value 64
#数据量小于等于list-max-ziplist-entries用ziplist,大于list-max-ziplist-entries用list。
 list-max-ziplist-entries 512
#value大小小于等于list-max-ziplist-value的用ziplist,大于list-max-ziplist-value用list。
 list-max-ziplist-value 64
#数据量小于等于set-max-intset-entries用iniset,大于set-max-intset-entries用set。
 set-max-intset-entries 512
#数据量小于等于zset-max-ziplist-entries用ziplist,大于zset-max-ziplist-entries用zset。
 zset-max-ziplist-entries 128
#value大小小于等于zset-max-ziplist-value用ziplist,大于zset-max-ziplist-value用zset。
 zset-max-ziplist-value 64
#value大小小于等于hll-sparse-max-bytes使用稀疏数据结构(sparse),大于hll-sparse-max-bytes使用稠密的数据结构(dense)。一个比16000大的value是几乎没用的,建议的value大概为3000。如果对CPU要求不高,对空间要求较高的,建议设置到10000左右。
 hll-sparse-max-bytes 3000
#Redis将在每100毫秒时使用1毫秒的CPU时间来对redis的hash表进行重新hash,可以降低内存的使用。当你的使用场景中,有非常严格的实时性需要,不能够接受Redis时不时的对请求有2毫秒的延迟的话,把这项配置为no。如果没有这么严格的实时性要求,可以设置为yes,以便能够尽可能快的释放内存。
 activerehashing yes
##对客户端输出缓冲进行限制可以强迫那些不从服务器读取数据的客户端断开连接,用来强制关闭传输缓慢的客户端。
#对于normal client,第一个0表示取消hard limit,第二个0和第三个0表示取消soft limit,normal client默认取消限制,因为如果没有寻问,他们是不会接收数据的。
 client-output-buffer-limit normal 0 0 0
#对于slave client和MONITER client,如果client-output-buffer一旦超过256mb,又或者超过64mb持续60秒,那么服务器就会立即断开客户端连接。
 client-output-buffer-limit slave 256mb 64mb 60
#对于pubsub client,如果client-output-buffer一旦超过32mb,又或者超过8mb持续60秒,那么服务器就会立即断开客户端连接。
 client-output-buffer-limit pubsub 32mb 8mb 60
#redis执行任务的频率为1s除以hz。
 hz 10
#在aof重写的时候,如果打开了aof-rewrite-incremental-fsync开关,系统会每32MB执行一次fsync。这对于把文件写入磁盘是有帮助的,可以避免过大的延迟峰值。
 aof-rewrite-incremental-fsync yes


############## 常规生产根据需求修改配置文件redis.conf #################

# 默认情况下,redis不是在后台模式运行的,如果需要在后台进程运行,把该项的值更改为yes,默认为no 
daemonize yes

#redis服务以后台进程运行的时候,Redis默认会把pid写入/var/run/redis.pid文件组
pidfile /var/run/redis.pid 

#开启保护模式
protected-mode yes

# 指定redis监听端口,默认为6379
port 6379 

# 指定redis只接收来自于该IP地址的请求,如果不进行设置,默认将处理所有请求,我们是在生产环境下,所以这是必备项
bind 192.128.232.11

# 设置客户端连接时的超时时间,单位为秒。当客户端在这段时间内没有发出任何指令,那么关闭该连接 
timeout 2

# 指定日志记录级别 
# Redis总共支持四个级别:debug、verbose、notice、warning,默认为verbose 
# debug  记录很多信息,用于开发和测试 
# varbose 很多精简的有用信息,不像debug会记录那么多 
# notice 普通的verbose,常用于生产环境 
# warning 只有非常重要或者严重的信息会记录到日志 
loglevel verbose 

# 可用数据库数,默认值为16,默认数据库存储在DB 0号ID库中,无特殊需求,建议仅设置一个数据库 databases 1 
databases 16

# 把数据库存到磁盘上: 
#   下面的例子将会进行把数据写入磁盘的操作: 
#   900秒(15分钟)之后,且至少有1个key(次)变更 
#   300秒(5分钟)之后,且至少有10个key(次)变更 
#   60秒之后,且至少有10000个key(次)变更 
#   注意:如果不需要写磁盘,则把所有 "save" 设置注释掉,即实现全内存服务器。 
save 900 1 
save 300 10 
save 60 10000

#持久化出现错误,是否还继续工作
stop-writes-on-bgsave-error yes

#是否压缩rdb文件
rdbcompression yes

#保存rdb文件,是否进行检查效验错误
rdbchecksum yes

# 数据库的文件名及存放路径 
dbfilename rdbfile.rdb

# 工作目录 
# 本地数据库会写到这个目录下,文件名就是上面的 "dbfilename" 的值。 
dir /usr/local/rdbfile

# 主从同步。通过 slaveof 配置来实现Redis实例的备份。
# 当本机为从服务时,设置主服务的IP及端口,在Redis启动时,它会自动从主服务进行数据同步 

# 当一个slave失去和master的连接,或者同步正在进行中,slave的行为有两种可能: 
# 1) 如果 replica-serve-stale-data  设置为 "yes" (默认值),slave会继续响应客户端请求,可能是正常数据,也可能是还没获得值的空数据。
# 2) 如果 replica-serve-stale-data  设置为 "no",slave会回复"正在从master同步(SYNC with master in progress)"来处理各种请求,除了 INFO 和 SLAVEOF 命令。
replica-serve-stale-data yes

# slave根据指定的时间间隔向服务器发送ping请求。 
# 时间间隔可以通过 repl_ping_slave_period 来设置。 
# 默认10秒 
repl-ping-slave-period 5

# 设置最大同时连接客户端数量,0表示没有限制,一旦达到这个限制,Redis会关闭所有新连接并发送错误达到最大用户数上限。
maxclients 10000

#slave节点配置指定主的redis节点
replicaof <masterip> <masterport>

#redis启用密码认证一定要requirepass和masterauth同时设置。最好一致,如果主宕机了,主从切换,密码不一致就会出现切换问题。
#对登录权限做限制,redis每个节点的requirepass
requirepass passwd123 

#主要是针对master对应的slave节点设置的,在slave节点数据同步的时候用到。
masterauth passwd123 

# 设置最大内存,达到最大内存设置后,Redis会先尝试清除已到期或即将到期的Key,当此方法处理后,任到达最大内存设置,将无法再进行写入操作。 
maxmemory 10240000000分配10G内存 
# 内存策略:如果达到内存限制了,Redis如何删除key。你可以在下面五个策略里面选: 
# volatile-lru -> 根据LRU算法生成的过期时间来删除。 
# allkeys-lru -> 根据LRU算法删除任何key。 
# volatile-random -> 根据过期设置来随机删除key。 
# allkeys->random -> 无差别随机删。 
# volatile-ttl -> 根据最近过期时间来删除(辅以TTL) 
# noeviction -> 谁也不删,直接在写操作时返回错误。 
maxmemory-policy noeviction

# 开启累加模式,因为redis本身同步数据文件是按上面save条件来同步的,所以有的数据会在一段时间内只存在于内存中,这种情况下,当Redis宕机的时候,最新的数据就丢了。
#如果不希望丢掉任何一条数据的话就该用纯累加模式:一旦开启这个模式,Redis会把每次写入的数据在接收后都写入 appendonly.aof 文件。 
appendonly yes

# 设置纯累加文件名字及保存路径,默认:"appendonly.aof" 
appendfilename appendonly.aof 

# Redis慢查询日志可以记录超过指定时间的查询。运行时间不包括各种I/O时间。 
slowlog-log-slower-than 10000

#为了保证数据的安全性, 可以通过配置
# 指定网络延迟的最大值 ,单位为秒。
min-slaves-max-lag 

#至少从服务器数量 主节点才能执行写操作,否则,主服务器会向请求执行写操作的客户端返回一个错误。
min-slaves-to-write 

2.部署主从
环境介绍 CentOS Linux release 7.6.1810 (Core)
192.128.232.11 主+Sentinel      redis端口:6379    Sentinel端口:26379
192.128.232.12 主+Sentinel      redis端口:6379    Sentinel端口:26379
192.128.232.13 主+Sentinel      redis端口:6379    Sentinel端口:26379


3.创建redis 数据目录 日志目录(3台)
二,redis多实例安装以及主从同步。
1.下载安装redis 
[root@master01 ~]# cd /opt/
[root@master01 opt]# wget https://download.redis.io/releases/redis-5.0.12.tar.gz
[root@master01 opt]# tar -zxf redis-5.0.12.tar.gz  
[root@master01 opt]# cd redis-5.0.12
[root@master01 redis-5.0.12]# make MALLOC=libc
[root@master01 redis-5.0.12]# make install

2.创建redis目录
[root@master01 ~]# mkdir -p /opt/redis/{data,conf,redis-log,sentinel-log}
[root@master01 ~]# cp -rf /opt/redis-5.0.12/src/redis-server /usr/local/bin/
[root@master01 ~]# cp -rf /opt/redis-5.0.12/src/redis-cli /usr/local/bin/
4.移动配置文件(3台)
#第一台
[root@master01 ~]# cd /usr/local/redis-5.0.12/
[root@master01 redis-5.0.12]# cat redis.conf | grep -v ^#|grep -v ^$ > /opt/redis/conf/redis.conf
#修改下面参数就可以了
[root@master01 redis-5.0.12]# vi /opt/redis/conf/redis.conf 
bind 192.128.232.11
protected-mode yes
port 6379
daemonize yes
pidfile /var/run/redis_6379.pid
logfile "/opt/redis/redis-log/redis.log"
loglevel verbose
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error yes
dbfilename dump.rdb
dir "/opt/redis/data"
appendonly yes
appendfilename "appendonly.aof"
appendfsync everysec
requirepass Passwd123
masterauth Passwd123

#复制到其它两个节点
[root@master01 redis-5.0.12]# scp /opt/redis/conf/redis.conf 192.128.232.12:/opt/redis/conf/redis.conf
[root@master01 redis-5.0.12]# scp /opt/redis/conf/redis.conf 192.128.232.13:/opt/redis/conf/redis.conf

#第二个,第三个实例配置
[root@master01 redis-5.0.12]# vi /opt/redis/conf/redis.conf
bind 192.128.232.12   #修改对应的ip
protected-mode yes
port 6379
daemonize yes
pidfile /var/run/redis_6379.pid
logfile "/opt/redis/redis-log/redis.log"
loglevel verbose
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error yes
dbfilename dump.rdb
dir "/opt/redis/data"
appendonly yes
appendfilename "appendonly.aof"
appendfsync everysec
requirepass Passwd123
masterauth Passwd123
replicaof 192.128.232.13 6379  #指定redis的master节点地址

5.启动脚本
[root@master01 conf]# cat /etc/init.d/redis
#!/bin/sh
#Configurations injected by install_server below....
EXEC=/usr/local/bin/redis-server
CLIEXEC=/usr/local/bin/redis-cli
PIDFILE=/var/run/redis_6379.pid
CONF="/opt/redis/conf/redis.conf"
REDISPORT="6379"

case "$1" in
    start)
        rm -rf $PIDFILE
        if [ -f $PIDFILE ]
        then
            echo "$PIDFILE exists, process is already running or crashed"
        else
            echo "Starting Redis server..."
            $EXEC $CONF
        fi
        ;;
    stop)
        if [ ! -f $PIDFILE ]
        then
            echo "$PIDFILE does not exist, process is not running"
        else
            PID=$(cat $PIDFILE)
            echo "Stopping ..."
            kill -9 $PID
            while [ -x /proc/${PID} ]
            do
                echo "Waiting for Redis to shutdown ..."
                sleep 1
            done
            echo "Redis stopped"
        fi
        ;;
    status)
        PID=$(cat $PIDFILE)
        if [ ! -x /proc/${PID} ]
        then
            echo 'Redis is not running'
        else
            echo "Redis is running ($PID)"
        fi
        ;;
    restart)
        $0 stop
        $0 start
        ;;
    *)
        echo "Please use start, stop, restart or status as first argument"
        ;;
esac

#启动redis
[root@master01 conf]# systemctl daemon-reload
[root@master01 conf]# service redis start
[root@master01 conf]# service redis status

#查看redis主从
[root@master01 conf]# redis-cli -h 192.128.232.11 -p 6379 -a Passwd123
Warning: Using a password with '-a' or '-u' option on the command line interface may not be safe.
192.128.232.13:6379> 
192.128.232.13:6379> INFO replication
# Replication
role:master
connected_slaves:2
slave0:ip=192.128.232.12,port=6379,state=online,offset=708248,lag=1
slave1:ip=192.128.232.13,port=6379,state=online,offset=708391,lag=0
master_replid:4e174de25e309f2727586bb281b9c5bfe9871185
master_replid2:b7a9b597637024f5ca9978973ba4f52421a9f974
master_repl_offset:708534
second_repl_offset:31951
repl_backlog_active:1

#创建key
192.128.232.13:6379> set fengge haorui
OK
192.128.232.13:6379> get fengge
"haorui"
192.128.232.13:6379> set shuiguo xigua
OK
192.128.232.13:6379> get shuiguo
"xigua"
192.128.232.13:6379> 
192.128.232.13:6379> KEYS *
1) "fengge"
2) "shuiguo"

#查看redis从
[root@master01 conf]# redis-cli -h 192.128.232.12 -p 6379 -a Passwd123
Warning: Using a password with '-a' or '-u' option on the command line interface may not be safe.
192.128.232.12:6379> KEYS *
1) "shuiguo"
2) "fengge"
192.128.232.12:6379> get fengge
"haorui"

6.部署哨兵
[root@master01 ~]# cd /opt/redis-5.0.12
[root@master01 redis-5.0.12]# cat sentinel.conf | grep -v ^#|grep -v ^$ >/opt/redis/conf/sentinel.conf
[root@master01 redis-5.0.12]# cp /opt/redis-5.0.12/src/redis-sentinel  /usr/local/bin
[root@master01 redis-5.0.12]# vi /opt/redis/conf/sentinel.conf 
port 26379
daemonize yes
pidfile /var/run/redis-sentinel.pid
logfile "/opt/redis/sentinel-log/sentinel.log"
dir /tmp
sentinel monitor mymaster 192.128.232.13 6379 2
sentinel down-after-milliseconds mymaster 30000
sentinel parallel-syncs mymaster 1
sentinel failover-timeout mymaster 180000
sentinel deny-scripts-reconfig yes
sentinel auth-pass mymaster Passwd123

#复制到其它两个节点
[root@master01 ~]# scp sentinel.conf 192.128.232.12:/opt/redis/conf/
[root@master01 ~]# scp sentinel.conf 192.128.232.13:/opt/redis/conf/

#启动sentinel脚本
[root@master01 ~]# vi /etc/init.d/sentinel
#!/bin/sh
#Configurations injected by install_server below....
EXEC=/usr/local/bin/redis-sentinel
PIDFILE=/var/run/redis-sentinel.pid
CONF="/opt/redis/conf/sentinel.conf"
REDISPORT="16379"

case "$1" in
    start)
        rm -rf $PIDFILE
        if [ -f $PIDFILE ]
        then
            echo "$PIDFILE exists, process is already running or crashed"
        else
            echo "Starting Sentinel server..."
            $EXEC $CONF
        fi
        ;;
    stop)
        if [ ! -f $PIDFILE ]
        then
            echo "$PIDFILE does not exist, process is not running"
        else
            PID=$(cat $PIDFILE)
            echo "Stopping ..."
            kill -9 $PID
            while [ -x /proc/${PID} ]
            do
                echo "Waiting for Sentinel to shutdown ..."
                sleep 1
            done
            echo "Sentinel stopped"
        fi
        ;;
    status)
        PID=$(cat $PIDFILE)
        if [ ! -x /proc/${PID} ]
        then
            echo 'Sentinel is not running'
        else
            echo "Sentinel is running ($PID)"
        fi
        ;;
    restart)
        $0 stop
        $0 start
        ;;
    *)
        echo "Please use start, stop, restart or status as first argument"
        ;;
esac

[root@master01 ~]# systemctl daemon-reload
[root@master01 ~]# service sentinel start
[root@master01 ~]# service sentinel status

#测试主从自动切换
[root@master01 redis-5.0.12]# service redis stop
Stopping ...
Waiting for Redis to shutdown ...
Redis stopped

#查看任何一台sentinel日志
[root@master03 conf]# tailf -200 /opt/redis/sentinel-log/sentinel.log 
41275:X 18 Jan 2022 18:37:49.601 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
41275:X 18 Jan 2022 18:37:49.601 # Redis version=5.0.12, bits=64, commit=00000000, modified=0, pid=41275, just started
41275:X 18 Jan 2022 18:37:49.601 # Configuration loaded
41276:X 18 Jan 2022 18:37:49.602 * Increased maximum number of open files to 10032 (it was originally set to 1024).
41276:X 18 Jan 2022 18:37:49.603 * Running mode=sentinel, port=26379.
41276:X 18 Jan 2022 18:37:49.603 # WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128.
41276:X 18 Jan 2022 18:37:49.605 # Sentinel ID is 948d7f18923d8593485356c1c88d75780729d2c0
41276:X 18 Jan 2022 18:37:49.605 # +monitor master mymaster 192.128.232.11 6379 quorum 2
41276:X 18 Jan 2022 18:37:49.607 * +slave slave 192.128.232.13:6379 192.128.232.13 6379 @ mymaster 192.128.232.11 6379
41276:X 18 Jan 2022 18:37:49.607 * +slave slave 192.128.232.12:6379 192.128.232.12 6379 @ mymaster 192.128.232.11 6379
41276:X 18 Jan 2022 18:37:50.511 * +sentinel sentinel 69c210c3bb9f0b04af91e3c208f6d3bdcdf5c86f 192.128.232.11 26379 @ mymaster 192.128.232.11 6379
41276:X 18 Jan 2022 18:37:50.700 * +sentinel sentinel 72ba92683ecf0fd89776e57f3d7574783b206d5c 192.128.232.12 26379 @ mymaster 192.128.232.11 6379
41276:X 18 Jan 2022 18:39:54.320 # +sdown master mymaster 192.128.232.11 6379
41276:X 18 Jan 2022 18:39:54.448 # +new-epoch 1
41276:X 18 Jan 2022 18:39:54.450 # +vote-for-leader 72ba92683ecf0fd89776e57f3d7574783b206d5c 1
41276:X 18 Jan 2022 18:39:55.441 # +odown master mymaster 192.128.232.11 6379 #quorum 3/2
41276:X 18 Jan 2022 18:39:55.441 # Next failover delay: I will not start a failover before Tue Jan 18 18:45:54 2022
41276:X 18 Jan 2022 18:39:55.659 # +config-update-from sentinel 72ba92683ecf0fd89776e57f3d7574783b206d5c 192.128.232.12 26379 @ mymaster 192.128.232.11 6379
41276:X 18 Jan 2022 18:39:55.659 # +switch-master mymaster 192.128.232.11 6379 192.128.232.13 6379  #主redis从11 到 13切换 
41276:X 18 Jan 2022 18:39:55.659 * +slave slave 192.128.232.12:6379 192.128.232.12 6379 @ mymaster 192.128.232.13 6379  
41276:X 18 Jan 2022 18:39:55.660 * +slave slave 192.128.232.11:6379 192.128.232.11 6379 @ mymaster 192.128.232.13 6379
41276:X 18 Jan 2022 18:40:25.720 # +sdown slave 192.128.232.11:6379 192.128.232.11 6379 @ mymaster 192.128.232.13 6379  #表示11 sdown了
41276:X 18 Jan 2022 19:32:50.928 # -sdown slave 192.128.232.11:6379 192.128.232.11 6379 @ mymaster 192.128.232.13 6379

[root@master01 redis-5.0.12]# redis-cli -h 192.128.232.13 -p 6379 -a Passwd123
Warning: Using a password with '-a' or '-u' option on the command line interface may not be safe.
192.128.232.13:6379> info replication
# Replication
role:master
connected_slaves:1
slave0:ip=192.128.232.12,port=6379,state=online,offset=953093,lag=0   #13只有一个12的从节点了。
master_replid:4e174de25e309f2727586bb281b9c5bfe9871185
master_replid2:b7a9b597637024f5ca9978973ba4f52421a9f974
master_repl_offset:953093
second_repl_offset:31951
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:953093

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

redis5.0的主从跟哨兵 的相关文章

随机推荐

  • 我的2011年终总结(流水账篇)

    2011即将过去 xff0c 2012即将到来 2013应该还会如期而来吧 xff1f 2011回顾 xff1a 去日本出差很幸运的遇上了大地震 xff08 还好不在福岛 xff09 和老婆谈了7年了 xff08 认识十年了 xff09 儿
  • poll函数详解及原理

    poll函数实现和select极为相似 xff0c 但是它们的接口并不相同 xff1a int poll struct pollfd fdarray nfds t nfds int timeout int select int maxfdp
  • 深度学习中的优化算法之SGD

    之前在https blog csdn net fengbingchun article details 75351323 介绍过梯度下降 xff0c 常见的梯度下降有三种形式 xff1a BGD SGD MBGD xff0c 它们的不同之处
  • CMake中include_directories的使用

    CMake中include directories命令用于在构建 build 中添加包含目录 其格式如下 include directories AFTER BEFORE SYSTEM dir1 dir2 将给定的目录添加到编译器 comp
  • CMake中target_link_libraries的使用

    CMake中的target link libraries命令用于指定链接给定目标和 或其依赖项时要使用的库或标志 来自链接库目标的使用要求将被传播 propagated 目标依赖项的使用要求会影响其自身源代码的编译 其格式如下 xff1a
  • CMake中install的使用

    CMake中的install命令用于指定安装时要运行的规则 xff0c 其格式如下 xff1a install TARGETS targets EXPORT lt export name gt RUNTIME DEPENDENCIES ar
  • 相机的内参和外参介绍

    注 xff1a 以下相机内参与外参介绍除来自网络整理外全部来自于 视觉SLAM十四讲从理论到实践 第2版 中的第5讲 xff1a 相机与图像 xff0c 为了方便查看 xff0c 我将每节合并到了一幅图像中 相机与摄像机区别 xff1a 相
  • Linux下常用的C/C++开源Socket库

    1 Linux Socket Programming In C 43 43 http tldp org LDP LG issue74 tougher html 2 ACE http www cs wustl edu schmidt ACE
  • C++11中unique_ptr的使用

    在C 43 43 中 xff0c 动态内存的管理是通过一对运算符来完成的 xff1a new xff0c 在动态内存中为对象分配空间并返回一个指向该对象的指针 xff0c 可以选择对对象进行初始化 xff1b delete xff0c 接受
  • 2021年校招软件测试工程师经典面试题,月薪15K你需要掌握哪些知识点?

    软件测试工程师 xff0c 和开发工程师相比起来 xff0c 前期可能不会涉及太深奥的内容 xff0c 但是涉及的面还是比较广的 面试实习生或者一年左右的岗位 xff0c 问的也主要是一些基础性的问题比较多 涉及的知识主要有MySQL数据库
  • 矩阵特征分解介绍及雅克比(Jacobi)方法实现特征值和特征向量的求解(C++/OpenCV/Eigen)

    对角矩阵 diagonal matrix xff1a 只在主对角线上含有非零元素 xff0c 其它位置都是零 xff0c 对角线上的元素可以为0或其它值 形式上 xff0c 矩阵D是对角矩阵 xff0c 当且仅当对于所有的i j Di j
  • HTTP解析库http-parser简介及使用

    http parser是一个用C编写的HTTP消息解析器 xff0c 可以解析请求和响应 xff0c 被设计用于高性能HTTP应用程序 它不会进行任何系统调用及内存分配 xff0c 它不会缓冲数据 xff0c 它可以被随时中断 根据你的体系
  • k8s之multus cni

    通常情况下在k8s中 xff0c 一个pod只有一个接口 xff0c 用于集群网络中pod和pod通信 xff0c 而multus定义了一种crd Kubernetes Network Custom Resource Definition
  • 【机器学习】浅析机器学习各大算法的适用场景

    最近在参加一个分类算法竞赛 xff0c 也正好整理各个分类机器学习算法的简单介绍 xff0c 应用场景和优缺点 资源来自网上和自己个人理解 一 逻辑回归模型 1 理解逻辑回归模型 xff08 LR xff09 逻辑回归是一种分类算法 xff
  • 【机器学习】异常检测算法之(KNN)-K Nearest Neighbors

    sklearn库里的KNN并没有直接用于异常检测 xff0c 但是包含了距离计算的函数 xff0c 所以我们应用PyOD中KNN库进行异常检测 xff0c 里面基本上也是调用sklearn的函数进行计算 xff0c 并进行了一些加工 一 图
  • 异常检测从入门到应用

    作者 xff1a 成森 64 知乎 来源 xff1a https zhuanlan zhihu com p 116235115 异常检测 Anomaly Detection 作为机器学习的一个重要分支 xff0c 实际应用领域广泛 xff0
  • Jetson Nano配置踩坑全记录

    Jetson Nano配置踩坑全记录 Jetson Nano相关参数 xff1a JetPack 4 6 xff0c cuda 10 2 xff0c SD卡内存 xff1a 512G 一 Jetson Nano系统镜像烧录 在Nvidia官
  • kubeadm的rbac

    什么是 Kubernetes RBAC 基于角色的访问控制 xff08 Role Based Access Control 即 34 RBAC 34 xff09 xff1a 使用 rbac authorization k8s io API
  • kubeadm部署dashboard-2.0.0版本

    kubeadm部署dashboard 2 0 0版本 创建dashboard的secret的私钥 root 64 yunwei CA openssl genrsa out od com key 2048 创建dashboard的secret
  • redis5.0的主从跟哨兵

    redis的主从跟哨兵 安装redis 5 0 12 下载地址 xff1a https download redis io releases 1 下载安装redis root 64 master01 cd opt root 64 maste