python数据分析和可视化【2】鸢尾花数据分析

​实验要求:

读取iris数据集中鸢尾花的萼片、花瓣长度数据(已保存为csv格式),并对其进行排序、去重,并求出和、累计和、均值、标准差、方差、最小值、最大值。

步骤:

1.导入模块 (格式为import ... as ...)

2.获取数据:可利用csv模块进行读取,也可用其他方法进行读取

3.数据清理:对读取的数据进行处理(将索引号去掉等等)

4.数据统计

(1)将鸢尾花数据集的花瓣长度进行排序。

(2)查看鸢尾花数据集中有几种花瓣长度。(首先提取所有数据的花瓣长度,然后进行去重)

(3)求数据中花瓣长度的和,均值,方差,最小值及最大值。

通过以上操作,可以发现鸢尾花数据集中哪些信息?

数据集:

代码:

python 复制代码
# 步骤1:导入模块
import pandas as pd
import numpy as np

# 步骤2:获取数据
iris_data = pd.read_csv('C:\\Users\86178\Desktop\iris.csv')

# 步骤3:数据清理
petal_length = iris_data['Sepal.Length']    #获取长度列,返回一个series序列

# 步骤4:数据统计
# (1) 将鸢尾花数据集的花瓣长度进行排序
sorted_petal_length = petal_length.sort_values()   #对序列中的值进行排序

# (2) 查看鸢尾花数据集中有几种花瓣长度
unique_petal_length = sorted_petal_length.unique()  #返回序列中所有不重复的元素,返回ndarray数组

# (3) 求数据中花瓣长度的和、均值、方差、最小值及最大值
sum_petal_length = petal_length.sum()
mean_petal_length = petal_length.mean()
var_petal_length = petal_length.var()
std_petal_length = petal_length.std()
min_petal_length = petal_length.min()
max_petal_length = petal_length.max()

# 输出结果
print("排序后的花瓣长度数据:")
print(sorted_petal_length)
print("\\n鸢尾花数据集中有几种花瓣长度:", len(unique_petal_length))
print("\\n花瓣长度的和:", sum_petal_length)
print("花瓣长度的均值:", mean_petal_length)
print("花瓣长度的方差:", var_petal_length)
print("花瓣长度的标准差:", std_petal_length)
print("花瓣长度的最小值:", min_petal_length)
print("花瓣长度的最大值:", max_petal_length)

运行结果:

相关推荐
ai大师3 分钟前
(附代码及图示)Multi-Query 多查询策略详解
python·langchain·中转api·apikey·中转apikey·免费apikey·claude4
小小爬虾24 分钟前
关于datetime获取时间的问题
python
Lansonli32 分钟前
大数据Spark(六十一):Spark基于Standalone提交任务流程
大数据·分布式·spark
蓝婷儿1 小时前
6个月Python学习计划 Day 16 - 面向对象编程(OOP)基础
开发语言·python·学习
chao_7892 小时前
链表题解——两两交换链表中的节点【LeetCode】
数据结构·python·leetcode·链表
Rverdoser2 小时前
电脑硬盘分几个区好
大数据
傻啦嘿哟2 小时前
Python 数据分析与可视化实战:从数据清洗到图表呈现
大数据·数据库·人工智能
Theodore_10222 小时前
大数据(2) 大数据处理架构Hadoop
大数据·服务器·hadoop·分布式·ubuntu·架构
大霞上仙3 小时前
nonlocal 与global关键字
开发语言·python
簌簌曌3 小时前
CentOS7 + JDK8 虚拟机安装与 Hadoop + Spark 集群搭建实践
大数据·hadoop·spark