将每个Excel文件的数据量统一减少至120000行

为了将每个Excel文件的数据量统一减少至120000行,可以使用Python的pandas库来加载、修改和保存每个文件。以下是一个简单的Python脚本:

首先,确保已经安装了pandas库,如果没有安装,可以通过以下命令安装:

py 复制代码
pip install pandas

接下来是处理数据的代码:

python 复制代码
import os
import pandas as pd

def trim_excel_files(root_dir, max_rows=120000-1):
    # 遍历根目录下的所有子目录
    for condition_dir in os.listdir(root_dir):
        condition_path = os.path.join(root_dir, condition_dir)
        if os.path.isdir(condition_path):
            # 遍历每个工况目录下的所有Excel文件
            for file in os.listdir(condition_path):
                if file.endswith('.xlsx'):
                    file_path = os.path.join(condition_path, file)
                    # 读取Excel文件
                    df = pd.read_excel(file_path)
                    # 如果行数超过120000,进行缩减
                    if len(df) > max_rows:
                        df = df.iloc[:max_rows]
                    # 保存修改后的数据到原文件
                    df.to_excel(file_path, index=False)
                    print(f"Processed {file_path}")

# 指定数据所在的根目录
root_dir = './程序代码1/data'
trim_excel_files(root_dir)

这个脚本首先定义了一个trim_excel_files函数,它接收一个包含数据文件的根目录作为参数。该函数将遍历根目录下的所有子目录,读取每个.xlsx文件,检查其中的行数,如果超过120000行,则将其缩减至120000行,并将修改后的数据保存回原文件。这个过程会替换掉原有的文件,请确保有备份或是可以接受这种替换。

相关推荐
2301_8002561134 分钟前
【人工智能引论期末复习】 第6章 深度学习4 - RNN
人工智能·rnn·深度学习
徐先生 @_@|||36 分钟前
Palantir Foundry 五层架构模型详解
开发语言·python·深度学习·算法·机器学习·架构
深蓝电商API1 小时前
Scrapy爬虫限速与并发控制最佳实践
爬虫·python·scrapy
Derrick__11 小时前
淘宝MD5爬虫
爬虫·python
薛定谔的猫19822 小时前
llama-index Embedding 落地到 RAG 系统
开发语言·人工智能·python·llama-index
翱翔的苍鹰2 小时前
神经网络中损失函数(Loss Function)介绍
人工智能·深度学习·神经网络
元智启2 小时前
企业AI应用面临“敏捷响应”难题:快速变化的业务与相对滞后的智能如何同步?
人工智能·深度学习·机器学习
nimadan123 小时前
**手机小说扫榜工具2025推荐,精准追踪榜单动态与题材风向
python·智能手机
编程武士3 小时前
Python 各版本主要变化速览
开发语言·python
Hcoco_me3 小时前
大模型面试题63:介绍一下RLHF
人工智能·深度学习·机器学习·chatgpt·机器人