基于pyspark的北京历史天气数据分析及可视化_离线

基于pyspark的北京历史天气数据分析及可视化

项目概况

**👇👇👇👇👇👇👇👇**

点这里,查看所有项目

**👆👆👆👆👆👆👆👆**

数据类型

北京历史天气数据

开发环境

centos7

软件版本

python3.8.18、hadoop3.2.0、spark3.1.2、mysql5.7.38、scala2.12.18、jdk8

开发语言

python

开发流程

数据上传(hdfs)->数据分析(spark)->数据存储(mysql)->后端(flask)->前端(html+js+css)

可视化图表

操作步骤

python安装包

shell 复制代码
pip3 install pandas==2.0.3 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip3 install flask==3.0.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip3 install flask-cors==4.0.1 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip3 install pyecharts==2.0.4 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip3 install pymysql==1.1.0 -i https://pypi.tuna.tsinghua.edu.cn/simple

启动MySQL

shell 复制代码
# 查看mysql是否启动 启动命令: systemctl start mysqld.service
systemctl status mysqld.service
# 进入mysql终端
# MySQL的用户名:root 密码:123456
# MySQL的用户名:root 密码:123456
# MySQL的用户名:root 密码:123456
mysql -uroot -p123456

启动Hadoop

shell 复制代码
# 离开安全模式: hdfs dfsadmin -safemode leave
# 启动hadoop
bash /export/software/hadoop-3.2.0/sbin/start-hadoop.sh

准备目录

shell 复制代码
mkdir -p /data/jobs/project/
cd /data/jobs/project/

# 上传 "data" 目录下的 "beijing_weather_data.csv" 文件

head -5 beijing_weather_data.csv

上传文件到hdfs

shell 复制代码
cd /data/jobs/project/

hdfs dfs -mkdir -p /data/source/
hdfs dfs -rm -r /data/source/*
hdfs dfs -put -f beijing_weather_data.csv /data/source/
hdfs dfs -ls /data/source/

创建MySQL库

sql 复制代码
CREATE DATABASE IF NOT EXISTS echarts CHARACTER SET utf8mb4 COLLATE utf8mb4_unicode_ci;

spark数据分析

shell 复制代码
cd /data/jobs/project/

# 上传 "pyspark" 目录下的 "data_process.py" 文件

spark-submit \
--master local[*] \
--jars /export/software/spark-3.1.2-bin-hadoop3.2/jars/mysql-connector-j-8.0.33.jar \
--driver-class-path /export/software/spark-3.1.2-bin-hadoop3.2/jars/mysql-connector-j-8.0.33.jar \
/data/jobs/project/data_process.py /data/source/

# 可以进入MySQL进行校验
# select * from weather_info limit 10;
# select * from weather_year_h_temp limit 10;
# select * from weather_min_max_temp limit 10;

启动可视化

shell 复制代码
mkdir -p /data/jobs/project/myapp/
cd /data/jobs/project/myapp/

# 上传 "可视化" 目录下的 "所有" 文件/文件夹

# windows本地运行: python app.py
python3 app.py pro
相关推荐
云天AI实战派27 分钟前
AI 智能体问题排查指南:ChatGPT、API 调用到 Agent 上线失灵的全流程修复手册
大数据·人工智能·python·chatgpt·aigc
m0_466525291 小时前
酷特AGI:从“自家试验田”到“全球输出”
大数据·人工智能·agi
市象2 小时前
AI带给TCL空调的头部假想
大数据·人工智能
身如柳絮随风扬2 小时前
深度解析 Elasticsearch 搜索服务:核心原理、架构与优化实践
大数据·elasticsearch·架构
kft13142 小时前
AI 驱动测试 2.0:当测试智能体成为你的“超级 QA“
大数据·人工智能·elasticsearch
亿信华辰软件3 小时前
睿治Agent数据治理平台重磅发布:数据治理大脑+全栈Agent,以AI重构数据治理全流程
大数据·人工智能
成长之路5143 小时前
【数据集】地级市农业韧性数据-含代码(1990-2023年)
大数据
啦啦啦_99994 小时前
2. 分类问题的评估
人工智能·分类·数据挖掘
CyberwayTech5 小时前
赛博威线上营销费用管理:咨询+系统,双轮驱动ROI增长
大数据·人工智能
NOCSAH5 小时前
统好AI:助力企业智改数转的务实实践
大数据·人工智能·统好ai