pandas:读取各类文件方法以及爬虫时json数据保存

文件的读取与写入

| 常用读文件方法 | 说明 |

| -------------- | ---------------- |

| read_csv | 读取CSV文件 |

| read_excel | 读取Excel文件 |

| read_html | 读取网页HTML文件 |

| read_table | 通用读取方法 |

| 常用写文件方法 | 说明 |

| -------------- | ----------- |

| to_csv | 写csv文件 |

| to_excel | 写Excel文件 |

1、读取文件常用的参数

pandas.read_csv(

filepath_or_buffer=None,

sep=',',

delimiter=None,

header=None,

names=None,

index_col=None,

usecols=None,

skiprows=None,

na_values=None,

nrows=None,

chunksize=None,

encoding=None,

):

| 参数 | 说明 |

| ------------------ | ------------------------------------------------------------ |

| filepath_or_buffer | 读取文件的路径或对象 |

| sep/delimiter | 输出文件的字段分隔符, 默认字符"," |

| header | 默认为'infer',读取第一行作为列名,也可以为None,使用默认列索引 |

| names | 自定义列名/列索引 |

| index_col | 选择一列作为行索引,可以输入默认列索引 也可以使用自定义的列索引/列名 |

| usecols | 只读取选中的列 |

| skiprows | 跳过行读取 |

| na_values | 个性化数据,将指定的数据变为缺失值NaN |

| nrows | 数据按指定行显示 |

| chunksize | 数据按指定行进行分块 |

| encoding | 设置编码格式 |

注意事项:

1、一般情况下我们用utf-8的编码进行保存,如果出现中文编码错误,则可以依次换用gbk,gb2312,gb18030等, 一般总能成功的

2、写入文件参数

```

df.to_csv(

path_or_buf=None,

sep=',',

columns=None,

header=True,

index_lable=None,

index=True,

encoding=None,)

```

| 参数 | 说明 |

| ----------- | ---------------------------------- |

| path_or_buf | 写入文件的路径或对象 |

| sep | 输出文件的字段分隔符, 默认字符"," |

| columns | 空值写入后的顺序,也可选列写入 |

| header | 布尔值,默认为True,写入列名称(索引) |

| index_label | 选择列作为 行索引 |

| index | 布尔值,默认为True,写入行名称(索引) |

| encoding | 设置写入的编码格式 |

excel表格读取写入特点

所有的读取和写入方法的参数通用,唯独excel表格有几个不一样的点

1、写入excel文件需要依赖模块-openpyxl

```python
安装: pip install openpyxl
```

2、读取excel文件需要依赖模块-xlrd

```
安装: pip install xlrd

df.to_excel(

excel_writer,

sheet_name="Sheet1",

columns=None,

header=True,

index=True,

index_label=None,

encoding=None,

)

```

| 特有的参数 | 说明 |

| ------------ | ------------------- |

| excel_writer | ExcelWriter目标路径 |

| sheet_name | excel工作表名命名 |

  • read_excel

pandas.read_excel(

io,

sheet_name=0,

header=0,

names=None,

index_col=None,

usecols=None,

skiprows=None,

nrows=None,

na_values=None,

)

```

| 特有的参数 | 说明 |

| ---------- | ------------------------------------------------------------ |

| io | excel路径 |

| sheet_name | 默认为0,多工作表读取使用sheetname=[0, 1],若sheetname=None是返回全表 |

当学习了读取和写入之后,就可以将爬虫的数据转为dataframe,使用dataframe写入的方式进行文件保存

相关推荐
waterHBO31 分钟前
python 爬虫 selenium 笔记
爬虫·python·selenium
limingade2 小时前
手机实时提取SIM卡打电话的信令和声音-新的篇章(一、可行的方案探讨)
物联网·算法·智能手机·数据分析·信息与通信
编程零零七2 小时前
Python数据分析工具(三):pymssql的用法
开发语言·前端·数据库·python·oracle·数据分析·pymssql
AIAdvocate3 小时前
Pandas_数据结构详解
数据结构·python·pandas
小言从不摸鱼4 小时前
【AI大模型】ChatGPT模型原理介绍(下)
人工智能·python·深度学习·机器学习·自然语言处理·chatgpt
FreakStudio5 小时前
全网最适合入门的面向对象编程教程:50 Python函数方法与接口-接口和抽象基类
python·嵌入式·面向对象·电子diy
redcocal7 小时前
地平线秋招
python·嵌入式硬件·算法·fpga开发·求职招聘
artificiali7 小时前
Anaconda配置pytorch的基本操作
人工智能·pytorch·python
RaidenQ7 小时前
2024.9.13 Python与图像处理新国大EE5731课程大作业,索贝尔算子计算边缘,高斯核模糊边缘,Haar小波计算边缘
图像处理·python·算法·课程设计
花生了什么树~.8 小时前
python基础知识(六)--字典遍历、公共运算符、公共方法、函数、变量分类、参数分类、拆包、引用
开发语言·python