当前位置:Gxlcms > mysql > Redis在linux上的安装过程和遇到的问题

Redis在linux上的安装过程和遇到的问题

时间:2021-07-01 10:21:17 帮助过:14人阅读

我的安装系统是 :Red Hat Enterprise Linux 5.5 下面是安装过程及一些遇到的问题: 1、下载安装包 [root@appshop ~]$ wget http://download.redis.io/releases/redis-2.6.13.tar.gz 2、解压缩 [root@appshop ~]# tar xzf redis-2.6.13.tar.gz 3、编译 [root

我的安装系统是 :Red Hat Enterprise Linux 5.5

下面是安装过程及一些遇到的问题:

1、下载安装包

[root@appshop ~]$ wget http://download.redis.io/releases/redis-2.6.13.tar.gz
\

2、解压缩

[root@appshop ~]# tar xzf redis-2.6.13.tar.gz
\

3、编译

[root@appshop ~]# cd redis-2.6.13
[root@appshop ~]# make

假如服务器上咩有安装 GCC的编译环境的话会报错,安装下GCC就可以 ,使用root用户 运行:yum install gcc 就会自动下载 安装,如下图

\\

然后再运行 :make 命令

\

编译完成,对于Redis的配置 redis.conf配置选项如下:根据需要修改

daemonize 是否以后台进程运行,默认为no
pidfile 如以后台进程运行,则需指定一个pid,默认为/var/run/redis.pid
bind 绑定主机IP,默认值为127.0.0.1(注释)
port 监听端口,默认为6379
timeout 超时时间,默认为300(秒)
loglevel 日志记录等级,有4个可选值,debug,verbose(默认值),notice,warning
logfile 日志记录方式,默认值为stdout
databases 可用数据库数,默认值为16,默认数据库为0
save   指出在多长时间内,有多少次更新操作,就将数据同步到数据文件。这个可以多个条件配合,比如默认配置文件中的设置,就设置了三个条件。
save 900 1
900秒(15分钟)内至少有1个key被改变
save 300 10 300秒(5分钟)内至少有300个key被改变
save 60 10000 60秒内至少有10000个key被改变
rdbcompression 存储至本地数据库时是否压缩数据,默认为yes
dbfilename 本地数据库文件名,默认值为dump.rdb
dir 本地数据库存放路径,默认值为 ./
slaveof   当本机为从服务时,设置主服务的IP及端口(注释)
masterauth  当本机为从服务时,设置主服务的连接密码(注释)
requirepass 连接密码(注释)
maxclients 最大客户端连接数,默认不限制(注释)
maxmemory  设置最大内存,达到最大内存设置后,Redis会先尝试清除已到期或即将到期的Key,当此方法处理后,任到达最大内存设置,将无法再进行写入操作。(注释)
appendonly 是否在每次更新操作后进行日志记录,如果不开启,可能会在断电时导致一段时间内的数据丢失。因为redis本身同步数据文件是按上面save条件来同步的,所以有的数据会在一段时间内只存在于内存中。默认值为no
appendfilename 更新日志文件名,默认值为appendonly.aof(注释)
appendfsync 更新日志条件,共有3个可选值。no表示等操作系统进行数据缓存同步到磁盘,always表示每次更新操作后手动调用fsync()将数据写到磁盘,everysec表示每秒同步一次(默认值)。
vm-enabled 是否使用虚拟内存,默认值为no
vm-swap-file 虚拟内存文件路径,默认值为/tmp/redis.swap,不可多个Redis实例共享
vm-max-memory 将所有大于vm-max-memory的数据存入虚拟内存,无论vm-max-memory设置多小,所有索引数据都是内存存储的(Redis的索引数据 就是keys),也就是说,当vm-max-memory设置为0的时候,其实是所有value都存在于磁盘。默认值为0。
 
#当dump .rdb数据库的时候是否压缩数据对象
rdbcompression yes
#dump数据库的数据保存的文件名
dbfilename dump.rdb
#Redis的工作目录
dir /var/lib/redis/
########### Replication #####################
#Redis的复制配置
# slaveof  
# masterauth 
 
############## SECURITY ###########
# requirepass foobared
 
############### LIMITS ##############
#最大客户端连接数
# maxclients 128
#最大内存使用率
# maxmemory 
 
########## APPEND ONLY FILE MODE #########
#是否开启日志功能
appendonly no
# 刷新日志到disk的规则
# appendfsync always
appendfsync everysec
# appendfsync no
################ VIRTUAL MEMORY ###########
#是否开启VM功能
vm-enabled no
# vm-enabled yes
vm-swap-file logs/redis.swap
vm-max-memory 0
vm-page-size 32
vm-pages 134217728
vm-max-threads 4
############# ADVANCED CONFIG ###############
glueoutputbuf yes
hash-max-zipmap-entries 64
hash-max-zipmap-value 512
#是否重置Hash表
activerehashing yes
 
Redis官方文档对VM的使用提出了一些建议: 当你的key很小而value很大时,使用VM的效果会比较好.因为这样节约的内存比较大. 当你的key不小时,可以考虑使用一些非常方法将很大的key变成很大的value,比如你可以考虑将key,value组合成一个新的value. 最好使用linux ext3 等对稀疏文件支持比较好的文件系统保存你的swap文件. vm-max-threads这个参数,可以设置访问swap文件的线程数,设置最好不要超过机器的核数.如果设置为0,那么所有对swap文件的操作都是串行的.可能会造成比较长时间的延迟,但是对数据完整性有很好的保证.

4、服务端启动

[hadoop@appshop redis-2.6.13]$ src/redis-server

\

5、再重启一个客户端的ssl窗口 运行客户端测试

[root@appshop redis-2.6.13]#  src/redis-cli

\

使用 set 和 get 存取命令,测试成功

人气教程排行