python大作业 写作思路

代码可以交给gpt一步一步来,但是要爬取什么得自己想。

首先爬取方面:

1.确定要爬取的对象,然后用edge,chorom等高级浏览器进行右键检查或者右上角打开 开发者工具,然后一个个翻自己要爬取的哪个class里面哪个标签中哪个标签中的哪个属性。

2.注意不能使用https,要使用http,不然会出现SSL报错

3.提前安装好requests和beautifulsoup,前者用于爬取,后者用于对html这类文件进行筛选

4.一定要记得把爬取的文件按照csv文件格式保存下来,至于选择哪些名称作为列名则看具体需要,csv文件比excel文件好操作,而且csv文件不需要装太多的包(注,csv文件本质上有txt文件改后缀变化,行与行之间之间enter换行即可,列与列之间要用英文逗号隔开)

所有步骤都应该单独列一个py文件进行运行,包括这个爬取,切勿一个文件走到底。

然后是对数据进行处理:

1.拿到的数据大部分都是文本数据,你需要再用一个py程序将其转换成名称,数量这种csv文件,而不是拿第一个爬取的文件去进行数据处理,也就是需要二次处理,除非你第一次爬出来的就是数据类型的,那就无需二次操作。

2.当你完成上面两步的时候,基本就快结束了,这时候就可以乘胜追击,进行数据的求平均值,相关性分析,聚类分析,你不会没关系,gpt会,直接搜就行,注意这也是要单独一个py程序的

3.要求上面要用到mysql,这里简要列出步骤,打开软件,点击你的test,然后新建数据库,起个名字,然后在这个数据库新建查询,输入建表语句(这个数据就是上一步的csv文件的东西,还要起个表名),然后在下一步中加进去你的host名,一般是localhost,用户名root,密码(不一定看你),数据库名,表名。

4.完成数据分析.py之后就是数据可视化分析,画图也好实现,唯一可能不方便的就是不输出中文,这时候在import下加上一句plt.rcParams['font.sans-serif']=['SimHei']即可

相关推荐
Evand J7 分钟前
【Python代码例程】长短期记忆网络(LSTM)和无迹卡尔曼滤波(UKF)的结合,处理复杂非线性系统和时间序列数据
python·lstm·滤波
大黄说说17 分钟前
MySQL数据库运维管理基础知识:从安装到日常维护的完整指南
开发语言
HAPPY酷25 分钟前
C++ 多线程实战三板斧
java·开发语言·c++·技术美术
独自破碎E30 分钟前
BISHI54货物堆放
android·java·开发语言
workflower1 小时前
易用性和人性化需求
java·python·测试用例·需求分析·big data·软件需求
嚯嚯歪1 小时前
攻克腾讯 TCaptcha 滑块验证码:纯 HTTP 协议逆向实战
爬虫·python·逆向·验证码识别
じ☆冷颜〃1 小时前
随机微分层论:统一代数、拓扑与分析框架下的SPDE论述
笔记·python·学习·线性代数·拓扑学
顾北122 小时前
SpringCloud 系列 04:Gateway 断言 / 过滤器 / 限流 一站式落地指南
java·开发语言·数据库
wuqingshun3141592 小时前
java创建对象的方式
java·开发语言
二十雨辰2 小时前
[英语]-介词和动词
开发语言