大数据之hadoop(hdfs部分)

1.引入:为什么需要分布式存储?

一个服务器能存入海量数据吗?显然是不能,所以构建分布式解决了存入问题.多台服务器的协调工作也是性能的横向扩展.

总结:

1.数据量太大,单机存储能力有上限,需要靠数量来解决问题

2.数量的提升带来的是网络传输、磁盘读写、CPU、内存等各方面的综合提升。分布式组合在一起可以达到1+1 > 2的效果

2.分布式的调度:

一.去中心化模式: 没有明确的中心点,协调工作 eg:kafka

二.中心化模式: 以一个节点为中心,基于中心点工作 eg:hadoop

3.主从模式(master-slaves):(中心化模式):一台master管理多台slaves工作

4.hdfs:(全称:hadoop distributed file system):也就是Hadoop分布式文件系统,是一个Hadoop的中间组件.主要解决海量数据的存储工作

5.hdfs集群架构(既然是中心化模式,那就有个中心点):

主角色:namenode(管理hdfs整个文件系统,管理database),带着一个secondarynode(辅助)

从角色(slaves):datanode(负责数据存储)

6.搭建集群:

主要的就:配置软连接

workers文件

hadoop-env.sh文件

core-site.xml文件

hdfs-site.xml文件

创建数据目录,修改文件的所属用户与所属用户组

格式化hadoop

也可以看我的专栏https://blog.csdn.net/m0_72898512/article/details/142883816?spm=1001.2014.3001.55017.启动集群

命令: start-dfs.sh

主namenode进程有:

从节点进程:

验证:主机名:9870/

8.代表集群机子数量

点进去就可以看到主机的信息了

配置好了记得快照

9.stop-dfs.sh关闭集群

10.然后关机即可

配置完成

相关推荐
紫郢剑侠4 分钟前
飞秋@Windows +iptux@Linux,打造内网跨平台IM环境
linux·运维·服务器·im·qq
保持低旋律节奏8 分钟前
linux——调试
linux·运维·服务器
牛奶咖啡1314 分钟前
Linux系统故障排查思路实践教程(下)
linux·运维·服务器·su命令切换用户问题解决·文件打开过多问题解决·linux网络故障问题解决·linux故障排查思路
武子康16 分钟前
大数据-184 Elasticsearch Doc Values 机制详解:列式存储如何支撑排序/聚合/脚本
大数据·后端·elasticsearch
expect7g36 分钟前
Paimon源码解读 -- Compaction-8.专用压缩任务
大数据·后端·flink
coder4_36 分钟前
Linux 数据同步全攻略:NFS 共享、inotify+rsync 与 sersync 实战指南
linux·rsync·文件共享·nfs·数据同步·inotify·实时备份
Lynnxiaowen1 小时前
今天我们继续学习kubernetes内容Helm
linux·学习·容器·kubernetes·云计算
Bigan(安)1 小时前
【奶茶Beta专项】【LVGL9.4源码分析】08-theme主题管理
linux·c语言·mcu·arm·unix
小汐睡着了1 小时前
解决虚拟机VMware与宿主机网络不通的问题-error
linux·网络·redhat
xdxghy09211 小时前
mini centos7+k3s部署(镜像拉取解决版)
linux·运维·服务器·阿里云·运维开发