大数据NoSQL数据库HBase集群部署

目录

1.  简介

2.  安装

1. HBase依赖Zookeeper、JDK、Hadoop(HDFS),请确保已经完成前面

2. 【node1执行】下载HBase安装包

3. 【node1执行】,修改配置文件,修改conf/hbase-env.sh文件

4. 【node1执行】,修改配置文件,修改conf/hbase-site.xml文件

5. 【node1执行】,修改配置文件,修改conf/regionservers文件

6. 【node1执行】,分发hbase到其它机器

7. 【node2、node3执行】,配置软链接

8. 【node1、node2、node3执行】,配置环境变量

9. 【node1执行】启动HBase

10. 验证HBase

11. 简单测试使用HBase


1.  简介

HBase 是一种 分布式 、可扩展、支持海量数据存储的 NoSQL 数据库。
Redis 一样, HBase 是一款 KeyValue 型存储的数据库。
不过和 Redis 设计方向不同
        Redis 设计为少量数据,超快检索
        HBase 设计为海量数据,快速检索
HBase 在大数据领域应用十分广泛,现在我们来在 node1 node2 node3 上部署HBase集群。

2.  安装

1. HBase依赖ZookeeperJDKHadoopHDFS),请确保已经完成前面

1)集群化软件前置准备( JDK)
2) Zookeeper
3) Hadoop
跳转链接:

2. node1执行】下载HBase安装包

# 下载
wget
http://archive.apache.org/dist/hbase/2.1.0/hbase-2.1.0-bin.tar.gz

# 解压
tar -zxvf hbase-2.1.0-bin.tar.gz -C /export/server

# 配置软链接
ln -s /export/server/hbase-2.1.0 /export/server/hbase

3. node1执行】,修改配置文件,修改conf/hbase-env.sh文件

# 在28行配置JAVA_HOME
export JAVA_HOME=/export/server/jdk
# 在126行配置:
# 意思表示,不使用HBase自带的Zookeeper,而是用独立
Zookeeper
export HBASE_MANAGES_ZK=false
# 在任意行,比如26行,添加如下内容:
export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"

4. node1执行】,修改配置文件,修改conf/hbase-site.xml文件

1 # 将文件的全部内容替换成如下内容:
2 <configuration>
3 - HBase数据在HDFS中的存放的路径 - >
4 <property>
5 <name>hbase.rootdir / name>
6 <value>hdfs: / node1:8020/hbase / value>
7 / property>
8 - Hbase的运行模式。false是单机模式,true是分
布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面
>
9 <property>
10 <name>hbase.cluster.distributed / name>
11 <value>true / value>
12 / property>
13 - ZooKeeper的地址 - >
14 <property>
15 <name>hbase.zookeeper.quorum / name>
16 <value>node1,node2,node3 / value>
17 / property>
18 - ZooKeeper快照的存储位置 - >
19 <property>
20
<name>hbase.zookeeper.property.dataDir / name>
21 <value>/export/server/apache-zookeeper-
3.6.0-bin/data / value>
22 / property>
23 - V2.1版本,在分布式情况下,设置为false - >
24 <property>
25
<name>hbase.unsafe.stream.capability.enforce / name>
26 <value>false / value>
27 / property>
28 / configuration>

部分格式转换时出现错误,图片演示:

5. node1执行】,修改配置文件,修改conf/regionservers文件

# 填入如下内容
node1
node2
node3

6. node1执行】,分发hbase到其它机器

scp -r /export/server/hbase-2.1.0
node2:/export/server/
scp -r /export/server/hbase-2.1.0
node3:/export/server/

7. node2node3执行】,配置软链接

ln -s /export/server/hbase-2.1.0 /export/server/hbase

8. node1node2node3执行】,配置环境变量

# 配置在/etc/profile内,追加如下两行
export HBASE_HOME=/export/server/hbase
export PATH=$HBASE_HOME/bin:$PATH

source /etc/profile

9. node1执行】启动HBase

请确保: Hadoop HDFS Zookeeper 是已经启动了的
start-hbase.sh

# 如需停止可使用
stop-hbase.sh
由于我们配置了环境变量 export PATH=$PATH:$HBASE_HOME/bin start-hbase.sh即在 $HBASE_HOME/bin 内,所以可以无论当前目录在哪,均可直接执行

10. 验证HBase

浏览器打开: http: //node1:16010 ,即可看到 HBase WEB UI 页面

11. 简单测试使用HBase

node1 执行】
hbase shell

# 创建表
create 'test','cf'

# 插入数据
put 'test','rk001','cf:info','itheima'

# 查询数据
get 'test','rk001'

# 扫描表数据
scan 'test'

相关文章

文章浏览阅读752次。关系型数据库关系型数据库是一个结构化的...
文章浏览阅读687次,点赞2次,收藏5次。商城系统中,抢购和秒...
文章浏览阅读1.4k次。MongoTemplate开发spring-data-mongodb...
文章浏览阅读887次,点赞10次,收藏19次。1.背景介绍1. 背景...
文章浏览阅读819次。MongoDB连接失败记录_edentialmechanisn...
文章浏览阅读470次。mongodb抽取数据到ES,使用ELK内部插件无...