设为首页 加入收藏

TOP

Greenplum--数据迁移(成倍增加计算能力)
2019-01-27 04:08:21 】 浏览:41
Tags:Greenplum-- 数据 迁移 成倍 增加 计算 能力

前言

GPDB 数据迁移可以通过全量恢复的方式,如果原来有3个机器,每个机器上面有2个Primary, 2个Mirror,那么可以通过扩展3部机器,变成每部机器上一个Primary,1个Mirror,在迁移的过程中,需要保证:

原有的机器利用Primary+Mirror可以组成一个完成的原有集群DB,可以正常启动,这样才能全量恢复,将数据恢复到扩展的机器上。

如下图,将原有机器的P1/P2/P3/M0/M2/M3 迁移到新机器,原有机器依然保留P0/P2/P4/M1/M2/M3能够启动整个数据库

Greenplum -- 数据迁移(成倍增加计算能力)

一、新机器准备工作:

1.1、开始设置新机器的一些参数,这些和之前安装GPDB是一样的,包括新建gpadmin组,gpadmin用户,关闭新机器防火墙

[root@gpsegment2 ~]# systemctl stop firewalld.service
[root@gpsegment2 ~]# systemctl disable firewalld.service

1.2、修改所有机器的hosts文件,同时建立ssh互信免密码登陆

[gpadmin@gpsegment2 ~]$ vim /etc/hosts #修改hosts文件
192.168.56.103 gpmaster
192.168.56.101 gpsegment3
192.168.56.104 gpsegment1
192.168.56.105 gpsegment2
192.168.56.102 gpsegment4
192.168.56.106 gpsegment5
192.168.56.107 gpsegment6

[gpadmin@gpmaster conf]$ gpssh-exkeys -f hostlist #将新机器域名加入到hostlist文件,运行即可建立ssh互信

1.3、在所有新机器建立GPDB安装目录 /opt/greenplum (这个目录需要跟其他旧机器保持一致,同时将文件夹所有权赋予gpadmin用户)

Greenplum -- 数据迁移(成倍增加计算能力)

1.4、和之前安装GPDB一样,压缩并拷贝master机器上的 /opt/greenplum/greenplum-db-4.3.17.0安装包到新机器上,并解压,解压后建立软连接

[gpadmin@localhost greenplum]$ ln -s greenplum-db-4.3.17.0/ greenplum-db
Greenplum -- 数据迁移(成倍增加计算能力)

二、开始迁移数据

迁移设置的目的是,让原有的机器通过组合一半Primary+Mirror暂时先设置为Primary,并且设置为不同步数据;然后将另外一半需要迁移的Primary+Mirror的状态都设置为宕机了,同时都设置为Mirror,并且设置为同步数据中;这样先将数据库启动起来,数据库检查发现有一半Mirror节点宕机了,就忽略了,然后利用其他的先启动,此时,数据库依然可以使用,我们通过GPDB自带的恢复工具,让他自动将宕机的Mirror都全量恢复,如此即可完成数据迁移

2.1、仅主机模式启动GPDB

[gpadmin@gpmaster ~]$ gpstart -m
[gpadmin@gpmaster ~]$ PGOPTIONS='-c gp_session_role=utility' psql #utility模式进入交互
testdb=# set allow_system_table_mods='dml' #设置为允许修改系统配置表

2.2、修改gp_segment_configuration 将要迁移的DB hostname/address 修改到对应的目标机器上,同时将status设置为d状态,role角色设置为m

Greenplum -- 数据迁移(成倍增加计算能力)

2.3、修改gp_segment_configuration 将不需要迁移的DB role角色设置为p,mode设置为c,status设置为u

Greenplum -- 数据迁移(成倍增加计算能力)

2.4、关闭数据库,gpstop,重启数据gpstart -a

有6台机器无法启动,被忽略了,但是正常启动了6台,所以可以使用
[gpadmin@gpmaster ~]$ gpstart -a
Greenplum -- 数据迁移(成倍增加计算能力)

2.5、通过gpstate -m可以查看Mirror状态

3个Mirror是Fail,另外3个被当成主机启动了
Greenplum -- 数据迁移(成倍增加计算能力)

2.6、执行全量恢复数据库

[gpadmin@gpmaster ~]$ gprecoverseg -F
可以查看到数据库已经启动恢复
Greenplum -- 数据迁移(成倍增加计算能力)
开启另外一个窗口,运行gpstate -m可以查看恢复进度
Greenplum -- 数据迁移(成倍增加计算能力)
需要等到所有的节点都恢复成Synchronized状态
Greenplum -- 数据迁移(成倍增加计算能力)
等所有新机器都全量同步完毕之后,因为新机器都设置为Mirror,旧机器的Mirror有一部分被用于Primary,所以需要在运行gprecoverseg -r 让Mirror和Primary恢复正常
[gpadmin@gpmaster ~]$ gprecoverseg -r
Greenplum -- 数据迁移(成倍增加计算能力)

2.8、最后,运行一下,检查是否所有的机器节点都正常了

Greenplum -- 数据迁移(成倍增加计算能力)


编程开发网
】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇MySQL的进阶部分解析 下一篇数据类型之【数值类型】的整数型i..

评论

帐  号: 密码: (新用户注册)
验 证 码:
表  情:
内  容:

array(4) { ["type"]=> int(8) ["message"]=> string(24) "Undefined variable: jobs" ["file"]=> string(32) "/mnt/wp/cppentry/do/bencandy.php" ["line"]=> int(214) }