Pandas加载大数据集

Scaling to large datasets --- pandas 2.1.4 documentationhttps://pandas.pydata.org/docs/user_guide/scale.html#use-efficient-datatypes官方文档提供了4种方法:只加载需要的列、转化数据类型、使用chunking(转化文件存储格式)、使用Dask(使用多进程/线程加载数据)。

python 复制代码
pd_csv.to_parquet(file_path_p) #将文件从原始的csv格式转为parquet格式
data = pd.read_parquet(file_path_p,columns=columns) #加载特定column

data['Timestamp_day'] = data['Timestamp_day'].astype("category") #把数据类型为Object且取值较为有限的列转为Category,以减少内存占用

print(data.dtypes) # 查看各列的数据类型
print(data.memory_usage(deep=True)) #查看各列的空间占用
相关推荐
唐古乌梁海21 小时前
【pandas】-4- 索新增列,assign,applay,map使用
pandas
折翼的恶魔1 天前
数据分析:排序
python·数据分析·pandas
万粉变现经纪人2 天前
如何解决pip安装报错ModuleNotFoundError: No module named ‘cuml’问题
python·scrapy·beautifulsoup·pandas·ai编程·pip·scipy
折翼的恶魔2 天前
数据分析:合并二
python·数据分析·pandas
☼←安于亥时→❦2 天前
数据分析之Pandas入门小结
python·pandas
TwoAI3 天前
Pandas 数据分析:从入门到精通的数据处理核心
数据挖掘·数据分析·pandas
万粉变现经纪人4 天前
如何解决pip安装报错ModuleNotFoundError: No module named ‘sympy’问题
python·beautifulsoup·pandas·scikit-learn·pyqt·pip·scipy
折翼的恶魔4 天前
数据分析:合并
python·数据分析·pandas
悟乙己5 天前
PySpark 与 Pandas 的较量:Databricks 中 SQL Server 到 Snowflake 的数据迁移之旅
数据库·pandas·pyspark
九章云极AladdinEdu5 天前
临床数据挖掘与分析:利用GPU加速Pandas和Scikit-learn处理大规模数据集
人工智能·pytorch·数据挖掘·pandas·scikit-learn·paddlepaddle·gpu算力