redis.conf详细配置信息

  1 1、pwd
  2 ##先查看当前路径,将下载好的redis上传。redis稳定版本为第2位偶数的。
  3 2、/home/bxapp
  4  ##当前路径
  5 3、mkdir redis
  6 ##创建redis文件,将文件redis-4.0.11.tar.gz上传至/opt文件夹
  7 4、tar -zxvf redis-4.0.11.tar.gz
  8 ##解压文件夹
  9 5、cd redis-4.0.11/
 10 6、 make && make PREFIX=/usr/local/redis install
 11  ##通过make命令进行安装Redis(需要root权限)
 12 7、cd /usr/local/
 13 8、mkdir -p /usr/local/redis-cluster
 14 9、cd redis-cluster/
 15 10、mkdir 7031 7032 7033 7034 7035 7036
 16 ##数量根据集群数量来定
 17 11、cp opt/redis-4.0.11/redis.conf  usr/local/redis-cluster
 18 12、cp redis.conf 7031
 19 13、编辑对应的redis.conf文件,各个修改项信息如下(详细配置信息见备注)
 20             1)绑定端口,port 7031
 21             2)绑定IP,bind 192.168.174.128   (:172.20.105.192)
 22             3)指定数据存放路径,dir /usr/local/redis-cluster/7031
 23             4)启动集群模式,cluster-enabled yes
 24             5)指定集群节点配置文件,cluster-config-file nodes-7031.conf
 25             7)后台启动,daemonize yes
 26             8)指定集群节点超时时间,cluster-node-timeout 5000
 27             9)指定持久化方式,appendonly yes
 28             10)配置密码        requirepass
 29 14、将7031的redis.conf拷贝到剩下的文件夹,将所有7031节点替换为对应端口号(port,cluster-config-file,dir三个地方)
 30 cp redis.conf /usr/local/redis-cluster/7032
 31 cp redis.conf /usr/local/redis-cluster/7036
 32
 33 ## 与ruby和gem相关的容易出错
 34 15、安装ruby 。如果系统上有ruby,版本号低于2.2.2 请将其卸载。安装高版本ruby。(官网现最高稳定版2.5)
 35      ruby -v
 36      查看ruby版本号
 37      yum remove ruby
 38      卸载ruby
 39      离线安装ruby较快(在线安装总是失败,我发现百信内网环境问题,linux拉文件总失败):
 40      ##强烈建议离线安装高版本ruby,高版本自带gem。百信的内网使用代理?不支持切换源?
 41      1) 上传文件ruby-2.5.7.tar.gz
 42      2) tar -zxvf ruby-2.5.7.tar.gz   解压文件
 43      3) mkdir -p /usr/local/ruby      创建安装目录
 44      4)./configure --prefix=/usr/local/ruby 配置并制定安装位置
 45      5)make  && make install   编译与安装 (龟速)
 46      5) ruby -v     提示/usr/bin/ruby: No such file or directory
 47      7)确认情况  /usr/local/ruby/bin/ruby --version
 48       ## 如果有版本信息,那说明ruby被装到了该目录下,而非系统认为的 /usr/bin/ruby
 49      8)建立软连接  ln -s /usr/local/ruby/bin/ruby /usr/bin/ruby
 50      9) ruby -v           OK完成
 51      Ruby 1.9.2版本以后默认已安装Ruby Gem.所以在安装ruby之后,查看gem版本,gem也需要创建软连接
 52      要是安装gem也出现这种情况[-bash: /usr/bin/gem: No such file or directory]也是同理
 53      10)ln -s /usr/local/ruby/bin/gem /usr/bin/gem  建立gem软连接
 54 ## 如ruby自带gem,不要操作第16步骤
 55 16、yum install rubygems #如果源无法安装,手动安装 ,最后建立软连接  ln -s   /usr/local/ruby/bin/gem /usr/bin/gem
 56 17、gem install redis  (安装ruby和redis的接口程序   龟速的龟速)
 57      1)错误1:
 58      ERROR:  Loading command: install (LoadError)
 59         cannot load such file -- zlib
 60      ERROR:  While executing gem ... (NoMethodError)
 61      undefined method `invoke_with_build_args' for nil:NilClass
 62      原因:缺少zlib库依赖
 63      解决方案:安装zlib依赖
 64
 65     1)ERROR:  Could not find a valid gem 'rails' (>= 0), here is why:
 66           Unable to download data from https://rubygems.org/ - Errno::ETIMEDOUT: Connection timed out - connect(2) for "s3.amazonaws.com" port 443 (https://api.rubygems.org/latest_specs.4.8.gz)
 67
 68      解决方案:网上说出现上面的情况需要切换源,现在好用的源是
 69             sudo gem sources -r https://rubygems.org  ##移除源
 70             sudo gem sources -a https://rubygems.org  ##添加源
 71             sudo gem sources -a http://gems.ruby-china.com/  ##好像因为百信内网的环境还无法切换源
 72             gem sources -l  查看gem所有源
 73
 74 #启动redis实例
 75 18、cd /usr/local/redis-cluster
 76 19、for((i=1;i<=6;i++)); do /usr/local/redis/bin/redis-server /usr/local/redis-cluster/703$i/redis.conf; done
 77 20、ps -aux | grep redis  查看redis是否运行成功
 78 21、找到redis-trib.rb文件   一般在redis源码目录src下的redis-trib.rb ,如果不知道  find / -name "redis-trib.rb"
 79 22、进入 /src/bin/  ##好像是在src文件夹下面
 80 23、
 81 ./redis-trib.rb create --replicas 1 127.0.0.1:7031  127.0.0.1:7032  127.0.0.1:7033  127.0.0.1:7034  127.0.0.1:7035  127.0.0.1:7036
 82 24、集群搭建成功测试
 83  /usr/local/redis/bin/redis-cli -c -h 127.0.0.1 -p 7031
 84
 85 #redis-trib.rb 程序的命令是 create,表示创建一个新的集群。选项 --replicas 1 表示为集群中的每个主节点创建一个从节点
 86 1其实代表的是一个比例,就是主节点数/从节点数的比例。slot对于Redis集群而言,一个存放数据的地方,对应一个槽。对于每一个Master而言,会存在一个slot的范围,而Slave则没有。在Redis集群中,依然是Master可以读、写,而Slave只读。数据的写入,实际上是分布的存储在slot中。
 87
 88 25、集群重启正常重启即可,单个重启也可,不许再配置信息
 89 26、关闭集群  for((i=1;i<=6;i++)); do /usr/local/redis/bin/redis-cli -c -h 127.0.0.1 -p 703$i shutdown; done
 90
 91
 92
 93 ###################################  redis.conf配置详细信息 ###################################
 94
 95 # 指定 redis 只接收来自于该IP地址的请求,如果不进行设置,那么将处理所有请求
 96 bind 127.0.0.1
 97
 98 #是否开启保护模式,默认开启。要是配置里没有指定bind和密码。开启该参数后,redis只会本地进行访问,
 99 拒绝外部访问。要是开启了密码和bind,可以开启。否则最好关闭,设置为no
100 protected-mode yes
101
102 #redis监听的端口号
103 port 6379
104
105 #此参数确定了TCP连接中已完成队列(完成三次握手之后)的长度, 当然此值必须不大于Linux系统定义
106 的/proc/sys/net/core/somaxconn值,默认是511,而Linux的默认参数值是128。当系统并发量大并且客户端
107 速度缓慢的时候,可以将这二个参数一起参考设定。该内核参数默认值一般是128,对于负载很大的服务程序来说
108 大大的不够。一般会将它修改为2048或者更大。在/etc/sysctl.conf中添加:net.core.somaxconn = 2048,
109 然后在终端中执行sysctl -p
110 tcp-backlog 511
111
112 #此参数为设置客户端空闲超过timeout,服务端会断开连接,为0则服务端不会主动断开连接,不能小于0
113 timeout 0
114
115 #tcp keepalive参数。如果设置不为0,就使用配置tcp的SO_KEEPALIVE值,使用keepalive有两个好处:检测挂
116 掉的对端。降低中间设备出问题而导致网络看似连接却已经与对端端口的问题。在Linux内核中,设置了
117 keepalive,redis会定时给对端发送ack。检测到对端关闭需要两倍的设置值
118 tcp-keepalive 300
119
120 #是否在后台执行,yes:后台运行;no:不是后台运行
121 daemonize yes
122
123 #redis的进程文件
124 pidfile /var/run/redis/redis.pid
125
126 #指定了服务端日志的级别。级别包括:debug(很多信息,方便开发、测试),verbose(许多有用的信息,
127 但是没有debug级别信息多),notice(适当的日志级别,适合生产环境),warn(只有非常重要的信息)
128 loglevel notice
129
130 #指定了记录日志的文件。空字符串的话,日志会打印到标准输出设备。后台运行的redis标准输出是/dev/null
131 logfile /usr/local/redis/var/redis.log
132
133
134 #是否打开记录syslog功能
135 # syslog-enabled no
136
137 #syslog的标识符。
138 # syslog-ident redis
139
140 #日志的来源、设备
141 # syslog-facility local0
142
143 #数据库的数量,默认使用的数据库是0。可以通过”SELECT 【数据库序号】“命令选择一个数据库,序号从0开始
144 databases 16
145 #################################  SNAPSHOTTING  #################################
146
147 ###################################  SNAPSHOTTING  ###################################
148
149 #RDB核心规则配置 save <指定时间间隔> <执行指定次数更新操作>,满足条件就将内存中的数据同步到硬盘
150 中。官方出厂配置默认是 900秒内有1个更改,300秒内有10个更改以及60秒内有10000个更改,则将内存中的
151 数据快照写入磁盘。
152 若不想用RDB方案,可以把 save "" 的注释打开,下面三个注释
153 #   save ""
154 save 900 1
155 save 300 10
156 save 60 10000
157
158 #当RDB持久化出现错误后,是否依然进行继续进行工作,yes:不能进行工作,no:可以继续进行工作,可以通
159 过info中的rdb_last_bgsave_status了解RDB持久化是否有错误
160 stop-writes-on-bgsave-error yes
161
162 #配置存储至本地数据库时是否压缩数据,默认为yes。Redis采用LZF压缩方式,但占用了一点CPU的时间。若关闭该选项,
163 但会导致数据库文件变的巨大。建议开启。
164 rdbcompression yes
165
166 #是否校验rdb文件;从rdb格式的第五个版本开始,在rdb文件的末尾会带上CRC64的校验和。这跟有利于文件的
167 容错性,但是在保存rdb文件的时候,会有大概10%的性能损耗,所以如果你追求高性能,可以关闭该配置
168 rdbchecksum yes
169
170 #指定本地数据库文件名,一般采用默认的 dump.rdb
171 dbfilename dump.rdb
172
173 #数据目录,数据库的写入会在这个目录。rdb、aof文件也会写在这个目录
174 dir /usr/local/redis/var
175 #################################  REPLICATION  #################################
176
177 ################################# REPLICATION #################################
178
179 # 复制选项,slave复制对应的master。
180 # replicaof <masterip> <masterport>
181
182 #如果master设置了requirepass,那么slave要连上master,需要有master的密码才行。masterauth就是用来
183 配置master的密码,这样可以在连上master后进行认证。
184 # masterauth <master-password>
185
186 #当从库同主机失去连接或者复制正在进行,从机库有两种运行方式:1) 如果slave-serve-stale-data设置为
187 yes(默认设置),从库会继续响应客户端的请求。2) 如果slave-serve-stale-data设置为no,
188 INFO,replicaOF, AUTH, PING, SHUTDOWN, REPLCONF, ROLE, CONFIG,SUBSCRIBE, UNSUBSCRIBE,
189 PSUBSCRIBE, PUNSUBSCRIBE, PUBLISH, PUBSUB,COMMAND, POST, HOST: and LATENCY命令之外的任何请求
190 都会返回一个错误”SYNC with master in progress”。
191 replica-serve-stale-data yes
192
193 #作为从服务器,默认情况下是只读的(yes),可以修改成NO,用于写(不建议)
194 #replica-read-only yes
195
196 # 是否使用socket方式复制数据。目前redis复制提供两种方式,disk和socket。如果新的slave连上来或者
197 重连的slave无法部分同步,就会执行全量同步,master会生成rdb文件。有2种方式:disk方式是master创建
198 一个新的进程把rdb文件保存到磁盘,再把磁盘上的rdb文件传递给slave。socket是master创建一个新的进
199 程,直接把rdb文件以socket的方式发给slave。disk方式的时候,当一个rdb保存的过程中,多个slave都能
200 共享这个rdb文件。socket的方式就的一个个slave顺序复制。在磁盘速度缓慢,网速快的情况下推荐用socket方式。
201 repl-diskless-sync no
202
203 #diskless复制的延迟时间,防止设置为0。一旦复制开始,节点不会再接收新slave的复制请求直到下一个rdb传输。
204 所以最好等待一段时间,等更多的slave连上来
205 repl-diskless-sync-delay 5
206
207 #slave根据指定的时间间隔向服务器发送ping请求。时间间隔可以通过 repl_ping_slave_period 来设置,默认10秒。
208 # repl-ping-slave-period 10
209
210 # 复制连接超时时间。master和slave都有超时时间的设置。master检测到slave上次发送的时间超过repl-timeout,即认为slave离线,清除该slave信息。slave检测到上次和master交互的时间超过repl-timeout,则认为master离线。需要注意的是repl-timeout需要设置一个比repl-ping-slave-period更大的值,不然会经常检测到超时
211 # repl-timeout 60
212
213
214 #是否禁止复制tcp链接的tcp nodelay参数,可传递yes或者no。默认是no,即使用tcp nodelay。如果
215 master设置了yes来禁止tcp nodelay设置,在把数据复制给slave的时候,会减少包的数量和更小的网络带
216 宽。但是这也可能带来数据的延迟。默认我们推荐更小的延迟,但是在数据量传输很大的场景下,建议选择yes
217 repl-disable-tcp-nodelay no
218
219 #复制缓冲区大小,这是一个环形复制缓冲区,用来保存最新复制的命令。这样在slave离线的时候,不需要完
220 全复制master的数据,如果可以执行部分同步,只需要把缓冲区的部分数据复制给slave,就能恢复正常复制状
221 态。缓冲区的大小越大,slave离线的时间可以更长,复制缓冲区只有在有slave连接的时候才分配内存。没有
222 slave的一段时间,内存会被释放出来,默认1m
223 # repl-backlog-size 1mb
224
225 # master没有slave一段时间会释放复制缓冲区的内存,repl-backlog-ttl用来设置该时间长度。单位为秒。
226 # repl-backlog-ttl 3600
227
228 # 当master不可用,Sentinel会根据slave的优先级选举一个master。最低的优先级的slave,当选master。
229 而配置成0,永远不会被选举
230 replica-priority 100
231
232 #redis提供了可以让master停止写入的方式,如果配置了min-replicas-to-write,健康的slave的个数小于N,mater就禁止写入。master最少得有多少个健康的slave存活才能执行写命令。这个配置虽然不能保证N个slave都一定能接收到master的写操作,但是能避免没有足够健康的slave的时候,master不能写入来避免数据丢失。设置为0是关闭该功能
233 # min-replicas-to-write 3
234
235 # 延迟小于min-replicas-max-lag秒的slave才认为是健康的slave
236 # min-replicas-max-lag 10
237
238 # 设置1或另一个设置为0禁用这个特性。
239 # Setting one or the other to 0 disables the feature.
240 # By default min-replicas-to-write is set to 0 (feature disabled) and
241 # min-replicas-max-lag is set to 10.
242 #################################  SECURITY #################################
243
244
245 #requirepass配置可以让用户使用AUTH命令来认证密码,才能使用其他命令。这让redis可以使用在不受信任的
246 网络中。为了保持向后的兼容性,可以注释该命令,因为大部分用户也不需要认证。使用requirepass的时候需要
247 注意,因为redis太快了,每秒可以认证15w次密码,简单的密码很容易被攻破,所以最好使用一个更复杂的密码
248 # requirepass foobared
249
250 #把危险的命令给修改成其他名称。比如CONFIG命令可以重命名为一个很难被猜到的命令,这样用户不能使用,而
251 内部工具还能接着使用
252 # rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52
253
254 #设置成一个空的值,可以禁止一个命令
255 # rename-command CONFIG ""
256  #################################  CLIENTS #################################
257
258 # 设置能连上redis的最大客户端连接数量。默认是10000个客户端连接。由于redis不区分连接是客户端连接还
259 是内部打开文件或者和slave连接等,所以maxclients最小建议设置到32。如果超过了maxclients,redis会给
260 新的连接发送’max number of clients reached’,并关闭连接
261 # maxclients 10000
262
263  #######################    MEMORY MANAGEMENT    ##########################
264
265 redis配置的最大内存容量。当内存满了,需要配合maxmemory-policy策略进行处理。注意slave的输出缓冲区
266 是不计算在maxmemory内的。所以为了防止主机内存使用完,建议设置的maxmemory需要更小一些
267 maxmemory 122000000
268
269 #内存容量超过maxmemory后的处理策略。
270 #volatile-lru:利用LRU算法移除设置过过期时间的key。
271 #volatile-random:随机移除设置过过期时间的key。
272 #volatile-ttl:移除即将过期的key,根据最近过期时间来删除(辅以TTL)
273 #allkeys-lru:利用LRU算法移除任何key。
274 #allkeys-random:随机移除任何key。
275 #noeviction:不移除任何key,只是返回一个写错误。
276 #上面的这些驱逐策略,如果redis没有合适的key驱逐,对于写命令,还是会返回错误。redis将不再接收写请求,只接收get请求。写命令包括:set setnx setex append incr decr rpush lpush rpushx lpushx linsert lset rpoplpush sadd sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby zunionstore zinterstore hset hsetnx hmset hincrby incrby decrby getset mset msetnx exec sort。
277 # maxmemory-policy noeviction
278
279 # lru检测的样本数。使用lru或者ttl淘汰算法,从需要淘汰的列表中随机选择sample个key,选出闲置时间最长的key移除
280 # maxmemory-samples 5
281
282 # 是否开启salve的最大内存
283 # replica-ignore-maxmemory yes
284  ##########################    LAZY FREEING    #############################
285
286 #以非阻塞方式释放内存
287 #使用以下配置指令调用了
288 lazyfree-lazy-eviction no
289 lazyfree-lazy-expire no
290 lazyfree-lazy-server-del no
291 replica-lazy-flush no
292  ########################   APPEND ONLY MODE    ###########################
293
294 #Redis 默认不开启。它的出现是为了弥补RDB的不足(数据的不一致性),所以它采用日志的形式来记录每个写
295 操作,并追加到文件中。Redis 重启的会根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作
296 默认redis使用的是rdb方式持久化,这种方式在许多应用中已经足够用了。但是redis如果中途宕机,会导致可
297 能有几分钟的数据丢失,根据save来策略进行持久化,Append Only File是另一种持久化方式,可以提供更好的
298 持久化特性。Redis会把每次写入的数据在接收后都写入 appendonly.aof 文件,每次启动时Redis都会先把这
299 个文件的数据读入内存里,先忽略RDB文件。若开启rdb则将no改为yes
300 appendonly no
301
302 指定本地数据库文件名,默认值为 appendonly.aof
303 appendfilename "appendonly.aof"
304
305
306 #aof持久化策略的配置
307 #no表示不执行fsync,由操作系统保证数据同步到磁盘,速度最快
308 #always表示每次写入都执行fsync,以保证数据同步到磁盘
309 #everysec表示每秒执行一次fsync,可能会导致丢失这1s数据
310 # appendfsync always
311 appendfsync everysec
312 # appendfsync no
313
314 # 在aof重写或者写入rdb文件的时候,会执行大量IO,此时对于everysec和always的aof模式来说,执行
315 fsync会造成阻塞过长时间,no-appendfsync-on-rewrite字段设置为默认设置为no。如果对延迟要求很高的
316 应用,这个字段可以设置为yes,否则还是设置为no,这样对持久化特性来说这是更安全的选择。设置为yes表
317 示rewrite期间对新写操作不fsync,暂时存在内存中,等rewrite完成后再写入,默认为no,建议yes。Linux的
318 默认fsync策略是30秒。可能丢失30秒数据
319 no-appendfsync-on-rewrite no
320
321 #aof自动重写配置。当目前aof文件大小超过上一次重写的aof文件大小的百分之多少进行重写,即当aof文件
322 增长到一定大小的时候Redis能够调用bgrewriteaof对日志文件进行重写。当前AOF文件大小是上次日志重写得
323 到AOF文件大小的二倍(设置为100)时,自动启动新的日志重写过程
324 auto-aof-rewrite-percentage 100
325
326 #设置允许重写的最小aof文件大小,避免了达到约定百分比但尺寸仍然很小的情况还要重写
327 auto-aof-rewrite-min-size 64mb
328
329 #aof文件可能在尾部是不完整的,当redis启动的时候,aof文件的数据被载入内存。重启可能发生在redis所
330 在的主机操作系统宕机后,尤其在ext4文件系统没有加上data=ordered选项(redis宕机或者异常终止不会造
331 成尾部不完整现象。)出现这种现象,可以选择让redis退出,或者导入尽可能多的数据。如果选择的是yes,
332 当截断的aof文件被导入的时候,会自动发布一个log给客户端然后load。如果是no,用户必须手动redis-
333 check-aof修复AOF文件才可以
334 aof-load-truncated yes
335
336 #加载redis时,可以识别AOF文件以“redis”开头。
337 #字符串并加载带前缀的RDB文件,然后继续加载AOF尾巴
338 aof-use-rdb-preamble yes
339  #########################   LUA SCRIPTING     ############################
340
341 # 如果达到最大时间限制(毫秒),redis会记个log,然后返回error。当一个脚本超过了最大时限。只有
342 SCRIPT KILL和SHUTDOWN NOSAVE可以用。第一个可以杀没有调write命令的东西。要是已经调用了write,只能
343 用第二个命令杀
344 lua-time-limit 5000
345  #########################   REDIS CLUSTER     ############################
346
347 # 集群开关,默认是不开启集群模式
348 # cluster-enabled yes
349
350 #集群配置文件的名称,每个节点都有一个集群相关的配置文件,持久化保存集群的信息。这个文件并不需要手动
351 配置,这个配置文件有Redis生成并更新,每个Redis集群节点需要一个单独的配置文件,请确保与实例运行的系
352 统中配置文件名称不冲突
353 # cluster-config-file nodes-6379.conf
354
355 #节点互连超时的阀值。集群节点超时毫秒数
356 # cluster-node-timeout 15000
357
358 #在进行故障转移的时候,全部slave都会请求申请为master,但是有些slave可能与master断开连接一段时间
359 了,导致数据过于陈旧,这样的slave不应该被提升为master。该参数就是用来判断slave节点与master断线的时
360 间是否过长。判断方法是:
361 #比较slave断开连接的时间和(node-timeout * slave-validity-factor) + repl-ping-slave-period
362 #如果节点超时时间为三十秒, 并且slave-validity-factor为10,假设默认的repl-ping-slave-period是10
363 秒,即如果超过310秒slave将不会尝试进行故障转移
364 # cluster-replica-validity-factor 10
365
366 # master的slave数量大于该值,slave才能迁移到其他孤立master上,如这个参数若被设为2,那么只有当一
367 个主节点拥有2 个可工作的从节点时,它的一个从节点会尝试迁移
368 # cluster-migration-barrier 1
369
370 #默认情况下,集群全部的slot有节点负责,集群状态才为ok,才能提供服务。设置为no,可以在slot没有全
371 部分配的时候提供服务。不建议打开该配置,这样会造成分区的时候,小分区的master一直在接受写请求,而
372 造成很长时间数据不一致
373 # cluster-require-full-coverage yes
374  ####################  CLUSTER DOCKER/NAT support  #######################
375
376 #*群集公告IP
377 #*群集公告端口
378 #*群集公告总线端口
379 # Example:
380 #
381 # cluster-announce-ip 10.1.1.5
382 # cluster-announce-port 6379
383 # cluster-announce-bus-port 6380
384  #############################  SLOW LOG #################################
385
386 # slog log是用来记录redis运行中执行比较慢的命令耗时。当命令的执行超过了指定时间,就记录在slow log
387 中,slog log保存在内存中,所以没有IO操作。
388 #执行时间比slowlog-log-slower-than大的请求记录到slowlog里面,单位是微秒,所以1000000就是1秒。注
389 意,负数时间会禁用慢查询日志,而0则会强制记录所有命令。
390 slowlog-log-slower-than 10000
391
392 #慢查询日志长度。当一个新的命令被写进日志的时候,最老的那个记录会被删掉。这个长度没有限制。只要有足
393 够的内存就行。你可以通过 SLOWLOG RESET 来释放内存
394 slowlog-max-len 128
395   ########################  LATENCY MONITOR ############################
396
397 #延迟监控功能是用来监控redis中执行比较缓慢的一些操作,用LATENCY打印redis实例在跑命令时的耗时图表。
398 只记录大于等于下边设置的值的操作。0的话,就是关闭监视。默认延迟监控功能是关闭的,如果你需要打开,也
399 可以通过CONFIG SET命令动态设置
400 latency-monitor-threshold 0
401   #######################  EVENT NOTIFICATION ###########################
402
403 #键空间通知使得客户端可以通过订阅频道或模式,来接收那些以某种方式改动了 Redis 数据集的事件。因为开启键空间通知功能需要消耗一些 CPU ,所以在默认配置下,该功能处于关闭状态。
404 #notify-keyspace-events 的参数可以是以下字符的任意组合,它指定了服务器该发送哪些类型的通知:
405 ##K 键空间通知,所有通知以 __keyspace@__ 为前缀
406 ##E 键事件通知,所有通知以 __keyevent@__ 为前缀
407 ##g DEL 、 EXPIRE 、 RENAME 等类型无关的通用命令的通知
408 ##$ 字符串命令的通知
409 ##l 列表命令的通知
410 ##s 集合命令的通知
411 ##h 哈希命令的通知
412 ##z 有序集合命令的通知
413 ##x 过期事件:每当有过期键被删除时发送
414 ##e 驱逐(evict)事件:每当有键因为 maxmemory 政策而被删除时发送
415 ##A 参数 g$lshzxe 的别名
416 #输入的参数中至少要有一个 K 或者 E,否则的话,不管其余的参数是什么,都不会有任何 通知被分发。详细使用可以参考http://redis.io/topics/notifications
417
418 notify-keyspace-events ""
419   #######################  ADVANCED CONFIG  ###########################
420
421 # 数据量小于等于hash-max-ziplist-entries的用ziplist,大于hash-max-ziplist-entries用hash
422 hash-max-ziplist-entries 512
423
424 # value大小小于等于hash-max-ziplist-value的用ziplist,大于hash-max-ziplist-value用hash
425 hash-max-ziplist-value 64
426
427 #-5:最大大小:64 KB<--不建议用于正常工作负载
428 #-4:最大大小:32 KB<--不推荐
429 #-3:最大大小:16 KB<--可能不推荐
430 #-2:最大大小:8kb<--良好
431 #-1:最大大小:4kb<--良好
432 list-max-ziplist-size -2
433
434 #0:禁用所有列表压缩
435 #1:深度1表示“在列表中的1个节点之后才开始压缩,
436 #从头部或尾部
437 #所以:【head】->node->node->…->node->【tail】
438 #[头部],[尾部]将始终未压缩;内部节点将压缩。
439 #2:[头部]->[下一步]->节点->节点->…->节点->[上一步]->[尾部]
440 #2这里的意思是:不要压缩头部或头部->下一个或尾部->上一个或尾部,
441 #但是压缩它们之间的所有节点。
442 #3:[头部]->[下一步]->[下一步]->节点->节点->…->节点->[上一步]->[上一步]->[尾部]
443 list-compress-depth 0
444
445 # 数据量小于等于set-max-intset-entries用iniset,大于set-max-intset-entries用set
446 set-max-intset-entries 512
447
448 #数据量小于等于zset-max-ziplist-entries用ziplist,大于zset-max-ziplist-entries用zset
449 zset-max-ziplist-entries 128
450
451 #value大小小于等于zset-max-ziplist-value用ziplist,大于zset-max-ziplist-value用zset
452 zset-max-ziplist-value 64
453
454 #value大小小于等于hll-sparse-max-bytes使用稀疏数据结构(sparse),大于hll-sparse-max-bytes使
455 用稠密的数据结构(dense)。一个比16000大的value是几乎没用的,建议的value大概为3000。如果对CPU要
456 求不高,对空间要求较高的,建议设置到10000左右
457 hll-sparse-max-bytes 3000
458
459 #宏观节点的最大流/项目的大小。在流数据结构是一个基数
460 #树节点编码在这项大的多。利用这个配置它是如何可能#大节点配置是单字节和
461 #最大项目数,这可能包含了在切换到新节点的时候
462 # appending新的流条目。如果任何以下设置来设置
463 # ignored极限是零,例如,操作系统,它有可能只是一集
464 通过设置限制最大#纪录到最大字节0和最大输入到所需的值
465 stream-node-max-bytes 4096
466 stream-node-max-entries 100
467
468 #Redis将在每100毫秒时使用1毫秒的CPU时间来对redis的hash表进行重新hash,可以降低内存的使用。当你
469 的使用场景中,有非常严格的实时性需要,不能够接受Redis时不时的对请求有2毫秒的延迟的话,把这项配置
470 为no。如果没有这么严格的实时性要求,可以设置为yes,以便能够尽可能快的释放内存
471 activerehashing yes
472
473 ##对客户端输出缓冲进行限制可以强迫那些不从服务器读取数据的客户端断开连接,用来强制关闭传输缓慢的客户端。
474 #对于normal client,第一个0表示取消hard limit,第二个0和第三个0表示取消soft limit,normal
475 client默认取消限制,因为如果没有寻问,他们是不会接收数据的
476 client-output-buffer-limit normal 0 0 0
477
478 #对于slave client和MONITER client,如果client-output-buffer一旦超过256mb,又或者超过64mb持续
479 60秒,那么服务器就会立即断开客户端连接
480 client-output-buffer-limit replica 256mb 64mb 60
481
482 #对于pubsub client,如果client-output-buffer一旦超过32mb,又或者超过8mb持续60秒,那么服务器就
483 会立即断开客户端连接
484 client-output-buffer-limit pubsub 32mb 8mb 60
485
486 # 这是客户端查询的缓存极限值大小
487 # client-query-buffer-limit 1gb
488
489 #在redis协议中,批量请求,即表示单个字符串,通常限制为512 MB。但是您可以更改此限制。
490 # proto-max-bulk-len 512mb
491
492 #redis执行任务的频率为1s除以hz
493 hz 10
494
495 #当启用动态赫兹时,实际配置的赫兹将用作作为基线,但实际配置的赫兹值的倍数
496 #在连接更多客户端后根据需要使用。这样一个闲置的实例将占用很少的CPU时间,而繁忙的实例将反应更灵敏
497 dynamic-hz yes
498
499 #在aof重写的时候,如果打开了aof-rewrite-incremental-fsync开关,系统会每32MB执行一次fsync。这
500 对于把文件写入磁盘是有帮助的,可以避免过大的延迟峰值
501 aof-rewrite-incremental-fsync yes
502
503 #在rdb保存的时候,如果打开了rdb-save-incremental-fsync开关,系统会每32MB执行一次fsync。这
504 对于把文件写入磁盘是有帮助的,可以避免过大的延迟峰值
505 rdb-save-incremental-fsync yes
506
507  ###################### ACTIVE DEFRAGMENTATION  ##########################
508
509 # 已启用活动碎片整理
510 # activedefrag yes
511
512 # 启动活动碎片整理的最小碎片浪费量
513 # active-defrag-ignore-bytes 100mb
514
515 # 启动活动碎片整理的最小碎片百分比
516 # active-defrag-threshold-lower 10
517
518 # 我们使用最大努力的最大碎片百分比
519 # active-defrag-threshold-upper 100
520
521 # 以CPU百分比表示的碎片整理的最小工作量
522 # active-defrag-cycle-min 5
523
524 # 在CPU的百分比最大的努力和碎片整理
525 # active-defrag-cycle-max 75
526
527 #将从中处理的set/hash/zset/list字段的最大数目
528 #主词典扫描
529 # active-defrag-max-scan-fields 1000
530
531 https://skynet.qa.bx/luna/
532
533
534     
01-13 04:46