本文使用创作助手。
第一步(可跳过,熟悉一下而已):
要在Python中新建一个文本文档并写入内容,可以使用文件操作功能。以下是一个示例代码:
python
# 新建文本文档并写入内容
with open('output.txt', 'w', encoding='utf-8') as file:
file.write("Hello, World!\n")
file.write("This is a new text file created using Python.")
在上述代码中,output.txt
是要创建的文本文档的名称和路径。'w'
表示以写入模式打开文件。
在with
语句中,file.write()
用于写入内容。您可以通过多次调用file.write()
来写入多行内容。
运行上述代码后,将会创建一个名为output.txt
的文本文档,并写入指定的内容。
请注意,在使用with
语句后,文件将自动关闭。这是一种推荐的文件操作方式,可以确保文件在使用完后正常关闭,而无需手动调用file.close()
。
第二步(开始啦):
要从CSDN上爬虫下载文章,可以使用Python的requests和BeautifulSoup库来实现。
首先,需要安装requests和BeautifulSoup库,可以使用以下命令来安装:
pip install requests
pip install beautifulsoup4
接下来,可以使用以下代码来爬取CSDN上的文章并保存到本地文件中:
python
import requests
from bs4 import BeautifulSoup
# 目标文章的URL
url = 'https://blog.csdn.net/xxx/article/details/xxx'
# 发起GET请求获取页面内容
response = requests.get(url)
# 使用BeautifulSoup解析页面内容
soup = BeautifulSoup(response.text, 'html.parser')
# 获取文章标题
title = soup.find('h1', class_='title-article').text
# 获取文章内容
content = soup.find('div', class_='blog-content-box').text
# 打开文件并保存文章内容
with open('input.txt', 'w', encoding='utf-8') as f:#这里的input.txt可以换成别的名字
f.write(content)
在上述代码中,需要将url
替换为您要爬取的CSDN文章的URL。然后,使用requests.get()
方法获取页面内容,再使用BeautifulSoup解析页面内容。
接下来,使用soup.find()
方法找到文章标题和内容的HTML元素,然后获取其文本内容。最后,使用文件操作将文章内容保存为一个文本文件。
请注意,根据CSDN的限制,爬虫行为可能会触发反爬虫机制,所以请确保您的爬虫行为不会对CSDN的服务器造成过大的压力,并遵守网站的使用规定。
第三步:
要将一个文本文件保存为Python文件并打开,您可以使用Python的文件操作功能和os
模块。
首先,您需要读取文本文件的内容,可以使用以下代码:
python
# 读取文本文件内容
with open('input.txt', 'r', encoding='utf-8') as file:
content = file.read()
在上述代码中,将input.txt
替换为您要读取的文本文件的路径。
接下来,您需要将文本内容保存为Python文件,可以使用以下代码:
python
# 将文本内容保存为Python文件
with open('output.py', 'w', encoding='utf-8') as file:
file.write(content)
在上述代码中,将output.py
替换为您要保存的Python文件的路径和名称。
最后,您可以使用os
模块中的system
函数执行python
命令来打开保存的Python文件,可以使用以下代码:
python
import os
# 打开保存的Python文件
os.system('python output.py')
运行上述代码后,将会自动保存文本文件为Python文件,并打开保存的Python文件。
请注意,为了确保代码的安全性,请确保您只打开您信任的文件,以防止恶意代码的执行。