greenplum集群的搭建过程(greenplum docker 集群)-9游会

大家好!今天让小编来大家介绍下关于greenplum集群的搭建过程的问题,以下是酷知号的小编对此问题的归纳整理,让我们一起来看看吧。

本篇内容主要讲解“greenplum集群的搭建过程”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“greenplum集群的搭建过程”吧!

环境说明

本次环境一共四台虚拟机,一台为master,三台为segment,其中segment3节点为standby master。 主机名:gpms,gps1,gps2,gps3

版本信息,redhat7.3 gp5.16

前期准备
--系统参数
cat <>/etc/sysctl.conf
#add by xyy for greenplum 20181016
kernel.shmmax = 500000000
kernel.shmmni = 4096
kernel.shmall = 4000000000
kernel.sem = 500 1024000 200 4096
kernel.sysrq = 1
kernel.core_uses_pid = 1
kernel.msgmnb = 65536
kernel.msgmax = 65536
kernel.msgmni = 2048
net.ipv4.tcp_syncookies = 1
net.ipv4.conf.default.accept_source_route = 0
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_max_syn_backlog = 4096
net.ipv4.conf.all.arp_filter = 1
net.ipv4.ip_local_port_range = 10000 65535
net.core.netdev_max_backlog = 10000
net.core.rmem_max = 2097152
net.core.wmem_max = 2097152
vm.overcommit_memory = 2
vm.overcommit_memory = 2
vm.swappiness = 10
vm.dirty_expire_centisecs = 500
vm.dirty_writeback_centisecs = 100
vm.dirty_background_ratio = 0
vm.dirty_ratio=0
vm.dirty_background_bytes = 1610612736
vm.dirty_bytes = 4294967296
eof
--资源限制  vi /etc/security/limits.conf
* soft nofile 65536
* hard nofile 65536
* soft nproc 131072
* hard nproc 131072
* soft core unlimited
创建用户,目录等,每个节点均需要
groupdel gpadmin
userdel gpadmin
groupadd -g 530 gpadmin
useradd -g 530 -u 530 -m -d /home/gpadmin  -s /bin/bash gpadmin
chown -r gpadmin:gpadmin /home/gpadmin
passwd gpadmin
mkdir /opt/greenplum
chown -r gpadmin:gpadmin /opt/greenplum
--hosts
192.168.80.161 gpms
192.168.80.162 gps1
192.168.80.163 gps2
192.168.80.164 gps3
master节点安装
su - gpadmin
/opt/greenplum/greenplum-db
./greenplum-db-5.16.0-rhel7-x86_64.bin
source /opt/greenplum/greenplum-db/greenplum_path.sh 
[gpadmin@gptest conf]$ pwd
/home/gpadmin/conf
[gpadmin@gptest conf]$ cat hostlist 
gpms
gps1
gps2
gps3
[gpadmin@gptest conf]$ cat seg_hosts 
gps1
gps2
gps3
[gpadmin@gptest conf]$
配置互信,批量打包解压
--ssh 互信
 gpssh-exkeys -f hostlist 
 --批量操作命令
 gpssh -f hostlist
 --打包
 tar -cvf gp5.6.tar greenplum-db-5.16.0/
 gpscp -f /home/gpadmin/conf/seg_hosts gp5.6.tar =:/opt/greenplum/
 gpssh -f seg_hosts 
 cd /opt/gr*
 tar -xvf gp5.6.tar 
 ln -s greenplum-db-5.16.0 greenplum-db
 --创建相关目录
 gpssh -f hostlist
mkdir -p /home/gpadmin/gpdata/gpmaster
mkdir -p /home/gpadmin/gpdata/gpdatap1
mkdir -p /home/gpadmin/gpdata/gpdatap2
mkdir -p /home/gpadmin/gpdata/gpdatam1
mkdir -p /home/gpadmin/gpdata/gpdatam2
 --配置环境变量
 echo "source /opt/greenplum/greenplum-db/greenplum_path.sh" >> /home/gpadmin/.bash_profile
 echo "export master_data_directory=/home/gpadmin/gpdata/gpmaster/gpseg-1" >> /home/gpadmin/.bash_profile
 echo "export pgport=2345" >> /home/gpadmin/.bash_profile
 echo "export pgdatabase=testdb" >> /home/gpadmin/.bash_profile
数据库初始化
cd /opt/greenplum/greenplum-db/docs/cli_help/gpconfigs
[gpadmin@gptest conf]$ vi gpinitsystem_config 
[gpadmin@gptest conf]$ cat gpinitsystem_config | grep -v '#' | grep -v '^$'
array_name="greenplum data platform"
#数据节点名称前缀
seg_prefix=gpseg
#primary 起始端口号
port_base=33000
#primary 数据目录
declare -a data_directory=/home/gpadmin/gpdata/gpdatap1 /home/gpadmin/gpdata/gpdatap2)
#master所在主机
master_hostname=gpms
#master数据目录
master_directory=/home/gpadmin/gpdata/gpmaster
master_port=2345
trusted_shell=/usr/bin/ssh
check_point_segments=8
encoding=unicode
#mirror 起始端口号
mirror_port_base=43000
#primary segment 主备同步的起始端口号
replication_port_base=34000
#mirror segment主备同步的起始端口号
mirror_replication_port_base=44000
#mirror segment数据目录
declare -a mirror_data_directory=/home/gpadmin/gpdata/gpdatam1 /home/gpadmin/gpdata/gpdatam2)
--初始化数据库
gpinitsystem -c gpinitsystem_config -h seg_hosts -s gps3 -s
创建数据库等操作命令参考
--create
select * from pg_filespace;
create tablespace tbs_siling filespace siling_fs;
select a.spcname,b.fsname from pg_tablespace a,pg_filespace b where spcfsoid=b.oid;
创建 数据库 与 用户 并 授权
create database testdb tablespace tbs_siling;;
create user testuser password 'testuser';
grant all on database testdb to testuser;
select rolname,oid from pg_roles;
--设置用户的 表空间 及 授权
alter user testuser set default_tablespace='tbs_siling';
grant all on tablespace tbs_siling to testuser;
--创建 模式 并 授权
create schema siling_mode;
grant all on schema siling_mode to testuser;
--启停数据库
gpstart -a
gpstop -a
--远程连接数据库
--修改密码
alter role gpadmin with password 'gpadmin';
host     all         all         192.168.80.0/0       md5
gpstop -u
psql -h 192.168.80.161 -d testdb -p 2345
--greenplum 数据分布在所有segment上,当查询数据时,master展现的数据时限接收到的数据顺序,每个segment的数据到达master的顺序是随机的。所以select顺序也是随机的。
select gp_segment_id ,count*) from test2020 group by gp_segment_id;
--集群节点分布情况  mode:s 表示已同步,r重新同步,c不同步。 status:u up  d down
select * from gp_segment_configuration;

以上就是小编对于greenplum集群的搭建过程问题和相关问题的解答了,greenplum集群的搭建过程的问题希望对你有用!

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文链接:https://www.andon8.com/397262.html

网站地图