大数据环境搭建进度

1.使用虚拟机的系统:centos7.xLinux

2.资源不足,使用云服务器:

3.使用远程登录进行操作

用xshell

4.任务

1.虚拟机装好

2.设置IP地址

3.可以联网

4.设置远程登录访问

5.创建module和software目录,修改两个目录的权限

6.克隆两台虚拟机,修改每台主机的hosts文件

7.安装jdk,设置jdk环境变量

让环境变量生效

hadoop@hadoop103 bin\]$ source /etc/profile \[hadoop@hadoop104 opt\]$ source /etc/profile 8.设置免密登录 ![](https://i-blog.csdnimg.cn/direct/9d8d0484e9c64c4fbae5ae87685b5dc8.png) ![](https://i-blog.csdnimg.cn/direct/f88f0ba9a1b44fab8167da0f800c5f1d.png) 9.安装hadoop /opt/module/下 10.修改hadoop的环境变量 > sudo vim /etc/profile.d/my_env.sh > > 内容为: > > > #JAVA_HOME(1 2 3) > > export JAVA_HOME=/opt/module/jdk1.8.0_212 > > export PATH=$PATH:$JAVA_HOME/bin > > #HADOOP_HOME(1) > > export HADOOP_HOME=/opt/module/hadoop > > export PATH=$PATH:$HADOOP_HOME/bin > > export PATH=$PATH:$HADOOP_HOME/sbin > > \~ > > source /etc/profile生效 11.修改hadoop配置文件 1.core-site.xml 2.hdfs-site.xml 3.yarn-site.xml 4.mapreduce-site.xml hdfs 100 yarn 200 在module上分发 scp 权限问题可以配好免密登录 #### 3.2.5 起动集群 **1** **)配置workers** \[hadoop@hadoop102 hadoop\]$ vim /opt/module/hadoop-3.1.3/etc/hadoop/workers 在该文件中增加如下内容: hadoop102 hadoop103 hadoop104 注意:该文件中添加的内容结尾不允许有空格,文件中不允许有空行。 同步所有节点配置文件 \[hadoop@hadoop102 hadoop\]$ xsync /opt/module/hadoop-3.1.3/etc **2** **)启动集群** (1)**如果集群是第一次启动** ,需要在hadoop102节点格式化NameNode(注意:格式化NameNode,会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到已往数据。如果集群在运行过程中报错,需要重新格式化NameNode的话,一定要先停止namenode和datanode进程,并且要删除所有机器的data和logs目录,然后再进行格式化。) \[hadoop@hadoop102 hadoop-3.1.3\]$ hdfs namenode -format (2)启动HDFS \[hadoop@hadoop102 hadoop-3.1.3\]$ sbin/start-dfs.sh (3)**在配置了** **ResourceManager** **的节点(hadoop103** **)**启动YARN \[hadoop@hadoop103 hadoop-3.1.3\]$ sbin/start-yarn.sh (4)Web端查看HDFS的NameNode (a)浏览器中输入:[http://hadoop102:9870](http://hadoop102:9870 "http://hadoop102:9870") (b)查看HDFS上存储的数据信息 (5)Web端查看YARN的ResourceManager (a)浏览器中输入:[http://hadoop103:8088](http://hadoop103:8088 "http://hadoop103:8088") (b)查看YARN上运行的Job信息 **3** **)集群基本测试** (1)上传文件到集群 * 上传小文件 \[hadoop@hadoop102 \~\]$ hadoop fs -mkdir /input \[hadoop@hadoop102 \~\]$ hadoop fs -put $HADOOP_HOME/wcinput/word.txt /input * 上传大文件 \[hadoop@hadoop102 \~\]$ hadoop fs -put /opt/software/jdk-8u212-linux-x64.tar.gz / (2)上传文件后查看文件存放在什么位置 * 查看HDFS文件存储路径 \[hadoop@hadoop102 subdir0\]$ pwd /opt/module/hadoop-3.1.3/data/dfs/data/current/BP-1436128598-192.168.10.102-1610603650062/current/finalized/subdir0/subdir0 * 查看HDFS在磁盘存储文件内容 \[hadoop@hadoop102 subdir0\]$ cat blk_1073741825 hadoop yarn hadoop mapreduce hadoop hadoop (3)拼接 -rw-rw-r--. 1 hadoop hadoop 134217728 5月 23 16:01 **blk_1073741836** -rw-rw-r--. 1 hadoop hadoop 1048583 5月 23 16:01 blk_1073741836_1012.meta -rw-rw-r--. 1 hadoop hadoop 63439959 5月 23 16:01 **blk_1073741837** -rw-rw-r--. 1 hadoop hadoop 495635 5月 23 16:01 blk_1073741837_1013.meta \[hadoop@hadoop102 subdir0\]$ cat blk_1073741836\>\>tmp.tar.gz \[hadoop@hadoop102 subdir0\]$ cat blk_1073741837\>\>tmp.tar.gz \[hadoop@hadoop102 subdir0\]$ tar -zxvf tmp.tar.gz (4)下载 \[hadoop@hadoop104 software\]$ hadoop fs -get /jdk-8u212-linux-x64.tar.gz ./ (5)执行wordcount程序 \[hadoop@hadoop102 hadoop-3.1.3\]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output

相关推荐
ywyy67986 分钟前
「数智化聚合分销生态系统」定制开发:重构全渠道增长引擎
大数据·搜索引擎·微信小程序·小程序·系统·聚合分销系统·聚合分销
weixin_4723394637 分钟前
基于Elasticsearch的搜索引擎简介
大数据·elasticsearch·搜索引擎
MXsoft6181 小时前
监控易一体化运维:统计报表,为运维决策装上“智慧引擎”
大数据
Elastic 中国社区官方博客1 小时前
JavaScript 中使用 Elasticsearch 的正确方式,第一部分
大数据·开发语言·javascript·数据库·elasticsearch·搜索引擎·全文检索
ThomasChan1231 小时前
Win10 安装单机版ES(elasticsearch),整合IK分词器和安装Kibana
java·大数据·elasticsearch·搜索引擎·全文检索·jenkins·es
令狐少侠20112 小时前
elasticsearch之记录es7.17升级8.17 springboot2.7.0 程序改造坑
大数据·elasticsearch·jenkins
源码技术栈11 小时前
SaaS基于云计算、大数据的Java云HIS平台信息化系统源码
java·大数据·云计算·云his·his系统·云医院·区域his
Elastic 中国社区官方博客11 小时前
Elasticsearch 索引副本数
大数据·数据库·elasticsearch·搜索引擎·全文检索
Eternity......12 小时前
SparkSQL基本操作
大数据·spark
2685725912 小时前
Elasticsearch 初步认识
大数据·elasticsearch·搜索引擎·全文检索·es