BigData之Google Hadoop中间件安装

前言

Hadoop / Zookeeper / Hbase

因资源有限 这三个都是安装在同一台Centos7.9的机器上

但通过配置 所以在逻辑上是distributed模式

1 Java安装

1.1 下载java11

tar/opt/java/jdk-11.0.5/

1.2 环境配置修改

文件/etc/profile

export JAVA_HOME=/opt/java/jdk-11.0.5/

export CLASSPATH=$JAVA_HOME/lib

export PATH=PATH:JAVA_HOME/bin

执行命令使之生效

$ source /etc/profile

2 Hadoop安装

2.1 创建hadoop用户

$ adduser hadoop

2.2 修改用户目录配置

/home/hadoop/.bashrc

export HADOOP_HOME=/home/bigdata/hadoop/

export PATH=HADOOP_HOME/sbin:HADOOP_HOME/bin:$PATH

1.3 下载Hadoop

Apache Hadoop

下载的版本是3.3.6

tar到目录/home/bigdata/hadoop/

1.4 修改hadoop相关配置

/home/bigdata/hadoop/etc/hadoop/core-site.xml

<property>

<name>hadoop.tmp.dir</name>

<value>file:/home/bigdata/hadoopTmp</value>

<description>Abase for other temporary directories.</description>

</property>

<property>

<name>fs.defaultFS</name>

<value>hdfs://localhost:9000</value>

</property>

/home/bigdata/hadoop/etc/hadoop/hadoop-env.sh

export JAVA_HOME=/opt/java/jdk-11.0.5/

/home/bigdata/hadoop/etc/hadoop/hdfs-site.xml

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/home/bigdata/hadoopTmp/dfs/name</value>

</property>

<property>

<name>dfs.namenode.checkpoint.dir</name>

<value>file:/home/bigdata/hadoopTmp/dfs/namesecondary</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:/home/bigdata/hadoopTmp/dfs/data</value>

</property>

1.5 初始化hdfs

cd /home/bigdata/hadoop

$ hdfs namenode -format

1.6 启动hdfs

cd /home/bigdata/hadoop/sbin/

$ ./start-dfs.sh

3 ZooKeeper安装

3.1 下载ZooKeeper

Apache ZooKeeper

版本是3.8.3

tar到目录/home/bigdata/zookeeper/

3.2 配置修改

3.2.1 配置改名

mv /home/bigdata/zookeeper/conf/zoo_sample.cfg /home/bigdata/zookeeper/conf/zoo.cfg

3.2.2 打开配置

vi /home/bigdata/zookeeper/conf/zoo.cfg

3.2.3 修改配置

dataDir=/home/bigdata/zookeeper/dataDir

dataLogDir=/home/bigdata/zookeeper/dataLogDir

3.2.4 启动zookeeper

cd /home/bigdata/zookeeper/bin/

./zkServer.sh start

通过jps查看zk的进程

3.2.5 查看状态

cd /home/bigdata/zookeeper/bin/

./zkServer.sh status

Hbase安装

1 修改bashrc配置

export HBASE_HOME=/home/bigdata/hbase/

export PATH=PATH:HBASE_HOME/bin

生效

$ source /home/hadoop/.bashrc

2 修改hbase配置文件

/home/bigdata/hbase/conf/hbase-env.sh

export JAVA_HOME=/opt/java/jdk-11.0.5/

export HBASE_CLASSPATH=/home/bigdata/hbase/conf/

export HBASE_MANAGES_ZK=false

/home/bigdata/hbase/conf/hbase-site.xml

Start

/home/bigdata/hbase/bin/start-hbase.sh

http://localhost:16010

Shell

/home/bigdata/hbase/bin/hbase shell

Shell - Command

create / list / describe / put / scan / get / display / drop / quit

create 'test', 'cf'

list 'test'

describe 'test'

put 'test', 'row1', 'cf:a', 'value1'

put 'test', 'row2', 'cf:b', 'value2'

put 'test', 'row3', 'cf:c', 'value3'

scan 'test'

get 'test', 'row1'

disable 'test'

enable 'test'

drop 'test'

Stop

/home/bigdata/hbase/bin/hbase-daemon.sh stop master

/home/bigdata/hbase/bin/stop.hbase.sh

看到最后 觉得还是看apache的吧

Apache HBase ™ Reference Guide

相关推荐
早睡早起早日毕业8 小时前
大数据管理与应用系列丛书《大数据平台架构》之吃透HBase:从原理到架构的深度解剖
hadoop·hbase
渣渣盟13 小时前
Flink数据流高效写入HBase实战
大数据·flink·scala·apache·hbase
你好~每一天1 天前
未来3年,最值得拿下的5个AI证书!
数据结构·人工智能·算法·sqlite·hbase·散列表·模拟退火算法
yumgpkpm2 天前
腾讯TBDS和Cloud Data AI CMP 比较的缺陷在哪里?
hive·hadoop·elasticsearch·zookeeper·spark·kafka·hbase
yumgpkpm6 天前
腾讯云TBDS与CDH迁移常见问题有哪些?建议由CDH迁移到CMP 7.13 平台(类Cloudera CDP,如华为鲲鹏 ARM 版)
hive·hadoop·zookeeper·flink·spark·kafka·hbase
yumgpkpm8 天前
数据可视化AI、BI工具,开源适配 Cloudera CMP 7.3(或类 CDP 的 CMP 7.13 平台,如华为鲲鹏 ARM 版)值得推荐?
人工智能·hive·hadoop·信息可视化·kafka·开源·hbase
1***s6328 天前
MySQLGraphQL案例
django·hbase·图形洹染
2501_9411477110 天前
人工智能与自动化:未来工作环境的颠覆性力量
hbase
阳爱铭13 天前
ClickHouse 中至关重要的两类复制表引擎——ReplicatedMergeTree和 ReplicatedReplacingMergeTree
大数据·hive·hadoop·sql·clickhouse·spark·hbase
人间打气筒(Ada)18 天前
Centos7 搭建hadoop2.7.2、hbase伪分布式集群
数据库·分布式·hbase