Redis开启AOF持久化数据丢失问题
一、过程演示登录redis,并写入测试数据redis-cli -h 172.16.254.124 -p 6379 -a redis 172.16.254.124:6379> set handong dongge OK 172.16.254.124:6379> set ci
redis-benchmark测试Redis集群性能
基础环境配置:Redis5 三主三从cluster1、100个并发连接,100000个请求,检测host为172.16.254.124端口为7004的redis服务器性能redis-benchmark -h 172.16.254.124 -p 7004 -c 100 -n 100000====== PING_
Redis5 集群缩容
本文将上篇文章添加的节点从Redis集群里删除。1、查看集群信息cluster nodes 5aa077444a506afad1ff796616124a0b7298c125 172.16.254.126:7006@17006 master - 0 1614781558502 10 connected 134
Redis5 集群扩容
一、环境准备1、部署Redis5集群(见前一篇文章)2、增加节点master172.16.254.121:7001slave172.16.254.122:7002并启动redis进程二、集群扩容添加节点172.16.254.121:7001到集群redis-cli --cluster add-node 172.16.254.121:7001 172.16.2
Redis5 三主三从集群版搭建
一、部署Redis六个节点部署Redis,过程略。二、修改配置文件172.16.254.124bind 172.16.254.124 protected-mode yes port 7004 tcp-backlog 511 timeout 0 tcp-keepalive 300 daemonize yes supe
Redis一主两从三哨兵部署
基础环境:CentOS 7.5 Redis5.0.5一、部署Redis三个节点部署Redis,过程略二、部署主从+哨兵1、配置redis.confmaster 172.16.254.106daemonize yes dir /redis/data logfile "/redis/log/redis.log
Redis5 单机版部署
环境准备:CentOS 7.5一、调整系统配置:1、调整 vm.overcommit_memoryecho "vm.overcommit_memory = 1" >> /etc/sysctl.conf它是内存分配策略可选值:0、1、2。0, 表示内核将检查是否有足够的可用内存供应用进程使用;如果有足够的可用内存,内存申请允许;否则,内存申请失败,并把错误返回给应用进
TIDB读取历史数据
功能说明 TiDB 实现了通过标准 SQL 接口读取历史数据功能,无需特殊的 client 或者 driver。当数据被更新、删除后,依然可以通过 SQL 接口将更新/删除前的数据读取出来。 另外即使在更新数据之后,表结构发生了变化,TiDB 依旧能用旧的表结构将数据读取出来。
在线升级TIDB集群
此次测试从4.0.8升级到4.0.9 检查当前集群各个节点状态:tiup cluster list Starting component `cluster`: /home/tidb/.tiup/components/cluster/v1.3.2/tiup-cluster list Name
离线升级TIDB集群
此次测试从4.0.8升级到4.0.9检查当前集群各个节点状态:tiup cluster display hdcluster Starting component `cluster`: /home/tidb/.tiup/components/cluster/v1.3.2/tiup-cluster display hdc
TIDB分布式集群叠加HAProxy实现负载均衡
软件版本:haproxy-2.0.20keepalived-1.4.5测试环境:tidb集群:pd_server*3,tidb_server*3,tikv*3一、修改内核参数echo "net.ipv4.ip_nonlocal_bind=1" >> /etc/sysctl.conf echo "net.ipv4.i
TiUP在线布署TIDB分布式数据库集群节点删除
检查当前集群节点状态:tiup cluster display hdcluster Starting component `cluster`: /home/tidb/.tiup/components/cluster/v1.3.2/tiup-cluster display hdcluster Cluster 
TiUP在线布署TIDB分布式数据库集群节点扩容
准备工作:按照上一篇文章《TiUP在线布署TIDB分布式数据库集群》将基础环境配置好。扩容步骤:编辑扩容配置文件scale-out.yaml,本次扩容涉及2台pd_server,1台tidb_server,1台tikv_server。tidb_servers: - host: 172.16.254.103 tikv_servers:  
TiUP在线布署TIDB分布式数据库集群
前期准备:1、安装CentOS7.5,Linux版本要求:Linux 操作系统平台版本Red Hat Enterprise Linux7.3 及以上CentOS7.3 及以上Oracle Enterprise Linux7.3 及以上Ubuntu LTS16.04 及以上2、关闭swapecho "vm.swappiness = 0">>
PolarDB-X 1.0数据库平滑扩容测试
PolarDB-X 标准版:16C64G(1台)RDS MySQL5.7: 4C8G(4台)平滑扩容流程分为配置>迁移>切换>清理四个步骤。步骤一:配置扩容任务信息开启扩容任务首先在PolarDB-X数据库左侧菜单中点击扩容管理,点击右上角扩容按钮,开始扩容配置。扩容模式选择平滑扩容后,点击下一步。购买新RDS在 RDS 实例选择页面,可选择已有RDS实例,也可购买新R
PolarDB-X 1.0 RDS节点异常测试
PolarDB-X 标准版:16C64G(1台)RDS MySQL5.7: 4C8G(4台)今天做一个简单的测试,PolarDB-X 1.0+RDS x4某个RDS节点出现故障的情况下,对PolarDB-X的业务有什么影响。模拟PolarDB-X不间断的请求,通过sysbench向PolarDB插入数据。[root@sysbench ~]# /usr/local/bin/sys
PolarDB-X 1.0和RDS性能对比之复杂查询
PolarDB-X 标准版:16C64G(1台)RDS MySQL5.7: 4C8G(4台)直连RDS:MySQL [hlj_order]> SELECT count(*) FROM `order` AS t1 LEFT JOIN `order_item` AS 
PolarDB-X 1.0和RDS性能对比之DDL
测试环境:PolarDB-X 标准版:16C64G(1台)RDS MySQL5.7: 4C8G(4台)ECS 压测机: 8C16G(1台)RDS测试表 单表1亿,PolarDB-X +RDS x4分库分表,单表1亿直连RDS:MySQL [sysbenchtest]> show create table sbtest1; +--------
PolarDB-X 1.0和RDS性能对比之慢DML(跑批)
测试环境:PolarDB-X 标准版:16C64G(1台)RDS MySQL5.7: 4C8G(4台)ECS 压测机: 8C16G(1台)RDS测试表 单表1亿,PolarDB-X +RDS x4分库分表,单表1亿直连RDS:MySQL [sysbenchtest]> show create table sbtest1; +--------
PolarDB-X 1.0和RDS性能对比之慢查询
测试环境:PolarDB-X 标准版:16C64G(1台)RDS MySQL5.7: 4C8G(4台)ECS 压测机: 8C16G(1台)RDS测试表 单表1亿,PolarDB-X +RDS x4分库分表,单表1亿我们日常遇到的慢SQL无非有三种:select、DML和DDL,下面我们测试一下慢查询直连RDS:show create table sbtest1; +