初次使用基于K3S的大数据平台

文章目录

  • [1. CloudEon概述](#1. CloudEon概述)
  • [2. 查看公有镜像](#2. 查看公有镜像)
  • [3. 基于镜像创建云主机](#3. 基于镜像创建云主机)
  • [4. 大数据服务管理](#4. 大数据服务管理)
    • [4.1 启动cloudeon服务](#4.1 启动cloudeon服务)
    • [4.2 进入集群管理后台](#4.2 进入集群管理后台)
    • [4.3 查看集群服务状况](#4.3 查看集群服务状况)
  • [5. 玩一玩HDFS](#5. 玩一玩HDFS)
    • [5.1 HDFS WebUI](#5.1 HDFS WebUI)
    • [5.2 HDFS Shell](#5.2 HDFS Shell)
      • [5.2.1 查看所有命名空间的Pod](#5.2.1 查看所有命名空间的Pod)
      • [5.2.2 进入名称节点的Pod容器内部](#5.2.2 进入名称节点的Pod容器内部)
      • [5.2.3 HDFS目录文件操作](#5.2.3 HDFS目录文件操作)
      • [5.2.4 运行词频统计程序](#5.2.4 运行词频统计程序)
      • [5.2.5 退出名称节点的Pod容器](#5.2.5 退出名称节点的Pod容器)
  • [6. 实战总结](#6. 实战总结)

1. CloudEon概述

  • CloudEon 是一款面向大数据与云原生融合场景的智能管理平台,旨在简化 Hadoop、Spark、Hive 等开源大数据组件在 Kubernetes(如 K3s)环境中的部署、运维与监控。它提供图形化界面,支持集群一键安装、服务启停、配置管理、状态监控和日志查看,降低运维复杂度。CloudEon 深度集成 K3s 轻量级 Kubernetes 集群,适用于边缘计算、私有云及混合云环境,助力企业快速构建和管理容器化大数据平台,提升资源利用率与系统稳定性。

2. 查看公有镜像

  • 登录实训云,单击[镜像],选择[公有镜像]选项卡

3. 基于镜像创建云主机

  • 创建三个云主机,绑定浮动IP地址
  • 利用FinalShell远程连接三台云主机

4. 大数据服务管理

4.1 启动cloudeon服务

  • 执行命令:docker start cloudeon

4.2 进入集群管理后台

  • 访问http://bigdata1:7700/
  • 输入用户名和密码(都是admin),单击【登录】按钮,首先看到集群管理界面
  • 单击【bigdata】,查看当前集群详情

4.3 查看集群服务状况

  • 单击左边栏的【服务】选项卡
  • 可以方便地对服务进行各种操作

5. 玩一玩HDFS

5.1 HDFS WebUI

  • 访问http://bigdata1:50070/,备用主节点
  • 访问http://bigdata2:50070/,当前主节点
  • 演示目录和文件操作

5.2 HDFS Shell

5.2.1 查看所有命名空间的Pod

  • 执行命令:kubectl get pods -A
  • 命令说明:kubectl get pods -A 是 Kubernetes 命令,用于列出所有命名空间(Namespace)中的 Pod。它显示每个 Pod 的名称、所属命名空间、就绪状态、重启次数和运行时长,是检查集群中容器化应用运行情况的常用诊断命令,帮助用户快速识别异常或未就绪的 Pod。

5.2.2 进入名称节点的Pod容器内部

  • 查看列表中的namenode:bigdata hadoop-hdfs-namenode-hdfs-cc946874f-knhrg 1/1
  • 执行命令:kubectl exec -it hadoop-hdfs-namenode-hdfs-cc946874f-knhrg -n bigdata -- bash
  • 命令说明 :该命令用于进入 HDFS NameNode 的 Pod 容器内部。kubectl exec -it 表示以交互式终端方式执行,hadoop-hdfs-namenode-hdfs-cc946874f-knhrg 是目标 Pod 名称,-n bigdata 指定命名空间,-- bash 表示在容器中启动 bash 命令行,便于执行 HDFS 管理命令或排查问题。
  • 进入 HDFS NameNode 容器后,可直接执行 hdfs dfs 等命令管理 HDFS 文件系统。结果将显示在终端,如目录列表、操作成功/失败提示。通过此方式可进行文件读写、权限设置、集群状态检查等运维操作,便于调试和验证 HDFS 服务是否正常运行。

5.2.3 HDFS目录文件操作

  1. 查看目录
    • 执行命令:hdfs dfs -ls /
  2. 创建目录
    • 执行命令:hdfs dfs -mkdir -p /wordcount/input
  3. 上传文件
    • 执行命令:vim words.txt,创建本地文件
    • 执行命令:hdfs dfs -put words.txt /wordcount/input

5.2.4 运行词频统计程序

  1. 查看Hadoop自带示例jar包
    • 执行命令:cd $HADOOP_HOME/share/hadoop/mapreduce
      `
    • 执行命令:ls
  2. 运行示例jar包里的词频统计
    • 执行命令:hadoop jar ./hadoop-mapreduce-examples-3.3.4.jar wordcount /wordcount/input/words.txt /wordcount/output
  3. 查看词频统计结果
    • 执行命令:hdfs dfs -ls /wordcount/output
    • 执行命令:hdfs dfs -cat /wordcount/output/*

5.2.5 退出名称节点的Pod容器

  • 执行命令:exit

6. 实战总结

  • 通过本次实训,掌握了基于 K3S 和CloudEon构建容器化大数据平台的核心流程。从云主机创建、服务部署到 HDFS 实际操作,全面体验了云原生环境下大数据组件的管理与使用。通过 WebUI 和 Shell 两种方式操作 HDFS,完成了文件上传、目录管理及 MapReduce 词频统计任务,验证了集群功能的完整性。不仅加深了对 Kubernetes Pod、容器执行命令等底层机制的理解,也提升了对 Hadoop 生态在现代化架构中应用的认知,为后续学习分布式计算与大数据运维打下坚实基础。
相关推荐
2501_941623323 小时前
人工智能赋能智慧农业互联网应用:智能种植、农业数据分析与产量优化实践探索》
大数据·人工智能
YangYang9YangYan4 小时前
网络安全专业职业能力认证发展路径指南
大数据·人工智能·安全·web安全
小五传输5 小时前
常用的文件摆渡系统:让数据安全高效跨越网络界限
大数据·运维·安全
数据科学小丫7 小时前
数据分析与FineBI介绍
大数据·数据分析·finebi
ALex_zry8 小时前
Git大型仓库推送失败问题完整解决方案
大数据·git·elasticsearch
二进制coder9 小时前
Git Fork 开发全流程教程
大数据·git·elasticsearch
天硕国产存储技术站13 小时前
DualPLP 双重掉电保护赋能 天硕工业级SSD筑牢关键领域安全存储方案
大数据·人工智能·安全·固态硬盘
雷文成.思泉软件13 小时前
以ERP为核心、企微为门户,实现一体化集成
大数据·低代码·创业创新
东哥说-MES|从入门到精通14 小时前
数字化部分内容 | 十四五年规划和2035年远景目标纲要(新华社正式版)
大数据·人工智能·数字化转型·mes·数字化工厂·2035·十四五规划
南飞测绘视界15 小时前
上市公司绿色专利申请、授权数据(1999-2024年)
大数据·专利·上市公司