HBase是一个面向列的分布式存储数据库。HBase的运行依靠于Hadoop和ZooKeeper,HBase使用HDFS作为其文件存储体系;使用MapReduce处理惩罚HBase中的数据;使用ZooKeeper作为分布式应用步调调和服务,同时存储HBase集群的元数据信息可以为HBase集群提供故障自动转移功能,以包管HBase集群的高可用。集群规划如下图所示:
一、安装HBase集群
- 下载HBase
访问Apache资源网站下载Linux操纵体系的HBase安装包hbase-1.2.1-bin.tar.gz。
留意:还没有下载安装包的,下载地点可以去这里查看:大数据相关常用软件下载地点集锦
- 上传HBase安装包
使用SecureCRT长途连接工具连接假造机Spark01,在存放应用安装包的目录/export/software/下实行“rz”命令上传HBase安装包。
- 安装HBase
在假造机Spark01中,通过解压缩的方式安装HBase,将HBase安装到存放应用的目录/export/servers/。
tar -zxvf /export/software/hbase-1.2.1-bin.tar.gz -C /export/servers/
- 修改设置文件hbase-env.sh
在HBase安装目录下的conf目录,实行“vi hbase-env.sh”命令编辑HBase设置文件hbase-env.sh,设置HBase运行时的相关参数。
- # 指定JDK安装目录。
- export JAVA_HOME=/export/servers/jdk1.8.0_161
- #指定不使用内置的ZooKeeper
- export HBASE_MANAGES_ZK=false
复制代码
- 修改设置文件hbase-site.xml
在HBase安装目录下的conf目录,实行“vi hbase-site.xml”命令编辑HBase设置文件hbase-site.xml,设置HBase相关参数。
- <property >
- <name>hbase.rootdir</name>#HBase集群中所有HRegionServer共享目录,用来持久化HBase的数据
- <value>hdfs://master/hbase</value>
- </property>
- <property >
- <name>hbase.cluster.distributed</name>#设置HBase的存储模式为分布式存储
- <value>true</value>
- </property>
- <property>
- <name>hbase.zookeeper.quorum</name>#设置ZooKeeper的服务器地址
- <value>spark01:2181,spark02:2181,spark03:2181</value>
- </property>
复制代码
- 修改设置文件regionservers
在HBase安装目录下的conf目录,实行“vi regionservers”命令编辑HBase设置文件regionservers,设置运行HRegionServer地点的服务器主机名。
- 复制Hadoop设置文件
进入Hadoop安装目录的conf目录,将设置文件core-site.xml和hdfs-site.xml复制到HBase安装目录下的conf目录,用于HBase启动时读取Hadoop的核心设置信息和HDFS设置信息。
cp {core-site.xml,hdfs-site.xml} /export/servers/hbase-1.2.1/conf/
- 设置备用HMaster
在HBase安装目录下的conf目录,实行“vi backup-masters”命令编辑备用HMaster设置文件backup-masters,设置备用HMaster地点的服务器主机名spark02。
- 分发HBase安装目录
为了便于快速设置HBase集群中其他服务器,将假造机Spark01中的HBase安装目录分发到假造机Spark02和Spark03。
- scp -r /export/servers/hbase-1.2.1/ root@spark02:/export/servers/
- scp -r /export/servers/hbase-1.2.1/ root@spark03:/export/servers/
复制代码
- 设置HBase情况变量
分别在假造机Spark01、Spark02和Spark03,实行“vi /etc/profile”命令编辑体系情况变量文件profile,设置HBase情况变量。
- export HBASE_HOME=/export/servers/hbase-1.2.1
- export PATH=$PATH:$HBASE_HOME/bin
复制代码 体系情况变量文件profile设置完成后生存并退出即可,随后实行“source /etc/profile”命令初始化体系情况变量使设置内容生效。
二、 启动HBase集群
- 在确保ZooKeeper集群和Hadoop高可用集群正常启动的情况下,在假造机Spark01中实行“start-hbase.sh”命令启动HBase高可用集群。
留意:启动HBase集群告诫
若启动HBase时出现“Java HotSpot™ 64-Bit Server VM warning: ignoring option xxx; support was removed in 8.0”告诫信息,这是由于我们使用JDK的版本为8,此时我们可以在hbase-env.sh文件中注释如下内容即可,再次重启HBase集群便不会再出现告诫。
- #export HBASE_MASTER_OPTS="$HBASE_MASTER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"
- #export HBASE_REGIONSERVER_OPTS="$HBASE_REGIONSERVER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"
复制代码 好了,HBase的集群部署我们就讲到这里了,下一篇我们将讲授Kafka集群部署
转载自:https://blog.csdn.net/u014727709/article/details/131216154
接待start,接待品评,接待指正
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |