HBase集群部署

打印 上一主题 下一主题

主题 533|帖子 533|积分 1599

  HBase是一个面向列的分布式存储数据库。HBase的运行依靠于Hadoop和ZooKeeper,HBase使用HDFS作为其文件存储体系;使用MapReduce处理惩罚HBase中的数据;使用ZooKeeper作为分布式应用步调调和服务,同时存储HBase集群的元数据信息可以为HBase集群提供故障自动转移功能,以包管HBase集群的高可用。集群规划如下图所示:

一、安装HBase集群


  • 下载HBase
    访问Apache资源网站下载Linux操纵体系的HBase安装包hbase-1.2.1-bin.tar.gz。
留意:还没有下载安装包的,下载地点可以去这里查看:大数据相关常用软件下载地点集锦

  • 上传HBase安装包
    使用SecureCRT长途连接工具连接假造机Spark01,在存放应用安装包的目录/export/software/下实行“rz”命令上传HBase安装包。
  • 安装HBase
    在假造机Spark01中,通过解压缩的方式安装HBase,将HBase安装到存放应用的目录/export/servers/。
    tar -zxvf /export/software/hbase-1.2.1-bin.tar.gz -C /export/servers/
  • 修改设置文件hbase-env.sh
    在HBase安装目录下的conf目录,实行“vi hbase-env.sh”命令编辑HBase设置文件hbase-env.sh,设置HBase运行时的相关参数。
  1. # 指定JDK安装目录。
  2. export JAVA_HOME=/export/servers/jdk1.8.0_161
  3. #指定不使用内置的ZooKeeper
  4. export HBASE_MANAGES_ZK=false
复制代码

  • 修改设置文件hbase-site.xml
    在HBase安装目录下的conf目录,实行“vi hbase-site.xml”命令编辑HBase设置文件hbase-site.xml,设置HBase相关参数。
  1. <property >
  2.       <name>hbase.rootdir</name>#HBase集群中所有HRegionServer共享目录,用来持久化HBase的数据
  3.       <value>hdfs://master/hbase</value>
  4. </property>
  5. <property >
  6.       <name>hbase.cluster.distributed</name>#设置HBase的存储模式为分布式存储
  7.       <value>true</value>
  8. </property>
  9. <property>
  10.       <name>hbase.zookeeper.quorum</name>#设置ZooKeeper的服务器地址
  11.      <value>spark01:2181,spark02:2181,spark03:2181</value>
  12. </property>
复制代码

  • 修改设置文件regionservers
    在HBase安装目录下的conf目录,实行“vi regionservers”命令编辑HBase设置文件regionservers,设置运行HRegionServer地点的服务器主机名。
  1. spark02
  2. spark03
复制代码

  • 复制Hadoop设置文件
    进入Hadoop安装目录的conf目录,将设置文件core-site.xml和hdfs-site.xml复制到HBase安装目录下的conf目录,用于HBase启动时读取Hadoop的核心设置信息和HDFS设置信息。
    cp {core-site.xml,hdfs-site.xml} /export/servers/hbase-1.2.1/conf/
  • 设置备用HMaster
    在HBase安装目录下的conf目录,实行“vi backup-masters”命令编辑备用HMaster设置文件backup-masters,设置备用HMaster地点的服务器主机名spark02。
  • 分发HBase安装目录
    为了便于快速设置HBase集群中其他服务器,将假造机Spark01中的HBase安装目录分发到假造机Spark02和Spark03。
  1. scp -r /export/servers/hbase-1.2.1/ root@spark02:/export/servers/
  2. scp -r /export/servers/hbase-1.2.1/ root@spark03:/export/servers/
复制代码

  • 设置HBase情况变量
    分别在假造机Spark01、Spark02和Spark03,实行“vi /etc/profile”命令编辑体系情况变量文件profile,设置HBase情况变量。
  1. export HBASE_HOME=/export/servers/hbase-1.2.1
  2. export PATH=$PATH:$HBASE_HOME/bin
复制代码
体系情况变量文件profile设置完成后生存并退出即可,随后实行“source /etc/profile”命令初始化体系情况变量使设置内容生效。
二、 启动HBase集群


  • 在确保ZooKeeper集群和Hadoop高可用集群正常启动的情况下,在假造机Spark01中实行“start-hbase.sh”命令启动HBase高可用集群。



    留意:启动HBase集群告诫
      若启动HBase时出现“Java HotSpot™ 64-Bit Server VM warning: ignoring option xxx; support was removed in 8.0”告诫信息,这是由于我们使用JDK的版本为8,此时我们可以在hbase-env.sh文件中注释如下内容即可,再次重启HBase集群便不会再出现告诫。
  1. #export HBASE_MASTER_OPTS="$HBASE_MASTER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"
  2. #export HBASE_REGIONSERVER_OPTS="$HBASE_REGIONSERVER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"
复制代码
好了,HBase的集群部署我们就讲到这里了,下一篇我们将讲授Kafka集群部署

转载自:https://blog.csdn.net/u014727709/article/details/131216154
接待start,接待品评,接待指正

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

美丽的神话

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表