大数据之Hadoop(一)

目录

一、准备三台服务器

二、虚拟机间配置免密登录

三、安装JDK

四、关闭防火墙

五、关闭安全模块SELinux

六、修改时区和自动时间同步


一、准备三台服务器

我们先准备三台服务器,可以通过虚拟机的方式创建,也可以选择云服务器。

关于如何创建虚拟机,我有写过相关文章。可以参考【编程环境安装】专题。

二、虚拟机间配置免密登录

配置的目的是方便分发资源。可以参考虚拟机之间配置免密登录_何苏三月的博客-CSDN博客

三、安装JDK

大数据的很多框架都依赖于JDK,所以,我们为每台服务器都安装好JDK。

Linux环境下安装JDK1.8_linux安装openjdk1.8_何苏三月的博客-CSDN博客

四、关闭防火墙

复制代码
systemctl stop firewalld
systemctl disable firewalld

五、关闭安全模块SELinux

Linux系统有一个安全模块SELinux,用以限制用户和程序的相关权限,来确保系统的安全稳定。

为了避免后面出现问题,我的建议是直接关掉。

需要在每台服务器执行如下命令:

复制代码
vim /etc/sysconfig/selinux

# 将第七行 SELINUX=enforcing 改为
SELINUX=disabled

然后保存退出后,重启虚拟机即可。

注意一定要写对,否则系统无法启动了。

六、修改时区和自动时间同步

俗称对表。

这需要我们下载一款ntp的软件来帮助我们完成"对表"工作。注意:依然是每台服务器都需要设置。

  1. 安装ntp软件

    yum install -y ntp

2.更新时区

复制代码
rm -f /etc/localtime
sudo ln -s /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

3.同步时间

复制代码
ntpdate -u ntp.aliyun.com

4.开启ntp服务并设置开机自启

复制代码
systemctl start ntpd
systemctl enable ntpd

演示

以上前期准备工作就算是做完了。

我的建议是做好虚拟机快照,这样即使后面服务器崩溃出问题了,我们也可以回到当前这个状态。

ok,我们下个教程见~

相关推荐
SelectDB1 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康1 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
茶杯梦轩1 天前
从零起步学习RabbitMQ || 第三章:RabbitMQ的生产者、Broker、消费者如何保证消息不丢失(可靠性)详解
分布式·后端·面试
IvanCodes1 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康2 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
回家路上绕了弯3 天前
深入解析Agent Subagent架构:原理、协同逻辑与实战落地指南
分布式·后端
字节跳动数据平台3 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康3 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台4 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术4 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark