使用Python+os模块创建文件和文件夹

一、使用Python的open函数创建文件

python 复制代码
# 创建文件
with open('/home/Download/my_directory/my_file.txt', 'w') as f:
    f.write('世界你好')

open(name[, mode[, buffering]])参数详解

  • name : 一个包含了你要访问的文件名称的字符串值。

  • mode : mode 决定了打开文件的模式:只读,写入,追加等。所有可取值见如下的完全列表。这个参数是非强制的,默认文件访问模式为只读(r)。

  • buffering : 如果 buffering 的值被设为 0,就不会有寄存。如果 buffering 的值取 1,访问文件时会寄存行。如果将 buffering 的值设为大于 1 的整数,表明了这就是的寄存区的缓冲大小。如果取负值,寄存区的缓冲大小则为系统默认。

操作文件的方式mode='方式'。

(1)r

以只读方式打开文件。文件的指针将会放在文件的开头。这是open默认模式。如果文件不存在,会报错。

(2)rb

以二进制只读方式打开一个文件。文件指针将会放在文件的开头。注意这种方式不能使用encoding,不然会报错。

(3)r+

以读写方式打开一个文件。文件指针将会放在文件的开头。直接写入会覆盖文件开头的内容。

(4)rb+

以二进制读写方式打开一个文件。文件指针将会放在文件的开头。

(5)w

以写入打开一个文件。如果该文件已存在,则将其覆盖。如果该文件不存在,则创建新文件。

(6)wb

以二进制写入方式打开一个文件。如果该文件已存在,则将其覆盖。如果该文件不存在,则创建新文件。

(7)w+

以读写方式打开一个文件。如果该文件已存在,则将其覆盖。如果该文件不存在,则创建新文件。

(8)wb+

以二进制读写格式打开一个文件。如果该文件已存在,则将其覆盖。如果该文件不存在,则创建新文件。

(9)a

以追加方式打开一个文件。如果文件已存在,文件指针将会放在文件结尾。即:新的内容将会被追加到已有的内容之后。如果该文件不存在,则创建新文件可用于写入。注意,不能读,读会出错。

(10)a+

以读写方式打开一个文件。如果文件已存在,文件指针将会放在文件结尾。即:新的内容将会被追加到已有的内容之后。如果该文件不存在,则创建新文件可用于读写。

(11)ab+

以二进制读写方式打开一个文件。如果文件已存在,文件指针将会放在文件结尾。即:新的内容将会被追加到已有的内容之后。如果该文件不存在,则创建新文件可用于读写。

二、使用Python的os模块的makedirs函数创建文件夹

python 复制代码
import os

if not os.path.exists('/home/Download/my_directory/subdirectory/subsubdirectory'):
    os.makedirs('/home/Download/my_directory/subdirectory/subsubdirectory')

os.makedirs(name, mode =0o777, exist_ok = False)

name:要创建的目录名称
mode:目录的权限, 默认为0o777
exist_ok:如果为True,表示当目录已经存在时并不会抛出异常

相关推荐
java1234_小锋25 分钟前
一周学会Flask3 Python Web开发-redirect重定向
前端·python·flask·flask3
重生之我要成为代码大佬26 分钟前
Python天梯赛10分题-念数字、求整数段和、比较大小、计算阶乘和
开发语言·数据结构·python·算法
Daitu_Adam30 分钟前
Windows11安装GPU版本Pytorch2.6教程
人工智能·pytorch·python·深度学习
阿正的梦工坊34 分钟前
Grouped-Query Attention(GQA)详解: Pytorch实现
人工智能·pytorch·python
码界筑梦坊1 小时前
基于Flask的短视频流量数据可视化系统的设计与实现
大数据·python·信息可视化·flask·毕业设计
eso19831 小时前
Spark MLlib使用流程简介
python·算法·spark-ml·推荐算法
dme.2 小时前
Python爬虫基础文件操作
爬虫·python
小白教程2 小时前
Python连接MySQL数据库图文教程,Python连接数据库MySQL入门教程
数据库·python·mysql·python链接数据库·python链接mysql
weixin_307779132 小时前
PySpark实现GROUP BY WITH CUBE和WITH ROLLUP的分类汇总功能
大数据·开发语言·python·spark
不太会写3 小时前
基于Python+django+mysql旅游数据爬虫采集可视化分析推荐系统
python·推荐算法