大数据课程L7——网站流量项目的操作步骤

文章作者邮箱:yugongshiye@sina.cn 地址:广东惠州

▲ 本章节目的

⚪ 了解网站流量项目的Spark与HBase整合;

⚪ 掌握网站流量项目的实时流业务处理;

一、 Spark 与 HBase 整合基础

1. 实现步骤:

  1. 启动 IDEA。

  2. 创建 Maven 工程,骨架选择 quickstart 。

  3. IDEA 安装 Scala 插件。

file ---> settings ---> plugins

搜素 Scala 插件,安装即可,安装完成后重启。

  1. 为 fluxStreamingServer 工程添加 Scala sdk 。

工程上右键 ---> add framework suppor

  1. 创建一个 Scala 目录,使其成为 source root 。

  2. 引入工程 pom,详见笔记。

  3. 学习 Spark 与 HBase 整合基础。

  4. 确定一下 Windows hosts 文件主机名与 ip 的映射是否正确。

  5. 启动服务器。

  6. 启动三台 zookeeper 集群。

  7. 启动 Hadoop 。

  8. 启动 HBase,进入01服务器 HBase 的 bin 目录, 执行如下指令:

sh start-hbase.sh

  1. 执行如下指令进入 hbase客户端,建表。

sh hbase shell

二、实时流业务处理

1. 实现步骤:

  1. 启动三台服务器。

  2. 启动 zookeeper 集群。

  3. 启动 Hadoop 。

  4. 启动 Kafka 集群 。

  5. 启动 flume 。

  6. 整合 SparkStreaming 与 Kafka,完成代码编写。

  7. 启动 SparkStreaming 。

  8. 启动 tomcat,访问埋点服务器,测试 SparkStreaming 是否能够收到数据。

  9. 启动 HBase。

相关推荐
时序数据说4 小时前
国内时序数据库概览
大数据·数据库·物联网·时序数据库·iotdb
阿Paul果奶ooo7 小时前
Flink中基于时间的合流--双流联结(join)
大数据·flink
数据爬坡ing7 小时前
过程设计工具深度解析-软件工程之详细设计(补充篇)
大数据·数据结构·算法·apache·软件工程·软件构建·设计语言
计算机源码社8 小时前
分享一个基于Hadoop的二手房销售签约数据分析与可视化系统,基于Python可视化的二手房销售数据分析平台
大数据·hadoop·python·数据分析·毕业设计项目·毕业设计源码·计算机毕设选题
Direction_Wind9 小时前
Flinksql bug: Heartbeat of TaskManager with id container_XXX timed out.
大数据·flink·bug
计算机毕设残哥10 小时前
完整技术栈分享:基于Hadoop+Spark的在线教育投融资大数据可视化分析系统
大数据·hadoop·python·信息可视化·spark·计算机毕设·计算机毕业设计
轻流AI11 小时前
线索转化率翻3倍?AI重构CRM
大数据·人工智能·低代码·重构
Kay_Liang12 小时前
从聚合到透视:SQL 窗口函数的系统解读
大数据·数据库·sql·mysql·数据分析·窗口函数
武子康14 小时前
大数据-69 Kafka 存储结构解析:日志文件与索引文件的内部机制
大数据·后端·kafka
萤丰信息20 小时前
智慧工地从工具叠加到全要素重构的核心引擎
java·大数据·人工智能·重构·智慧城市·智慧工地