一个pdf文件分割成两个

-- coding: utf-8 --**

import PyPDF2

打开原始PDF文件

with open('zhongguojinxiandaishi.pdf', 'rb') as pdf_file:

pdf_reader = PyPDF2.PdfReader(pdf_file)

num_pages = len(pdf_reader.pages)

# 确定分割点(例如,将页面一分为二)

split_point = num_pages // 2

# 创建两个PDF写入对象

pdf_writer1 = PyPDF2.PdfWriter()

pdf_writer2 = PyPDF2.PdfWriter()

# 将页面分别添加到两个写入对象中

for page_number in range(num_pages):

if page_number < split_point:

pdf_writer1.add_page(pdf_reader.pages[page_number])

else:

pdf_writer2.add_page(pdf_reader.pages[page_number])

# 将写入对象内容保存到两个新的PDF文件中

with open('第一部分.pdf', 'wb',encoding='utf-8') as output_file1:

pdf_writer1.write(output_file1)

with open('第二部分.pdf', 'wb',encoding='utf-8') as output_file2:

pdf_writer2.write(output_file2)

import PyPDF2

打开原始PDF文件

with open('caozuoxitong.pdf', 'rb') as pdf_file:

pdf_reader = PyPDF2.PdfReader(pdf_file)

num_pages = len(pdf_reader.pages)

确定分割点(例如,将页面一分为二)

split_point = num_pages // 2

创建两个PDF写入对象

pdf_writer1 = PyPDF2.PdfWriter()

pdf_writer2 = PyPDF2.PdfWriter()

将页面分别添加到两个写入对象中

for page_number in range(num_pages):

if page_number < split_point:

pdf_writer1.add_page(pdf_reader.pages[page_number])

else:

pdf_writer2.add_page(pdf_reader.pages[page_number])

将写入对象内容保存到两个新的PDF文件中

with open('caozuoxitong1.pdf', 'wb') as output_file1:

pdf_writer1.write(output_file1)

with open('caozuoxitong2.pdf', 'wb') as output_file2:

pdf_writer2.write(output_file2)

相关推荐
JustHappy40 分钟前
「web extensions🛠️」有关浏览器扩展,开发前你需要知道一些......
前端·javascript·开源
何中应1 小时前
nvm安装使用
前端·node.js·开发工具
玩大数据的龙威1 小时前
农经权二轮延包—各种地块示意图
python·arcgis
ZH15455891311 小时前
Flutter for OpenHarmony Python学习助手实战:数据库操作与管理的实现
python·学习·flutter
雯0609~1 小时前
hiprint:实现项目部署与打印3-vue版本-独立出模板设计与模板打印页面
前端·vue.js·arcgis
杜子不疼.1 小时前
【Linux】教你在 Linux 上搭建 Web 服务器,步骤清晰无门槛
linux·服务器·前端
belldeep1 小时前
python:用 Flask 3 , mistune 2 和 mermaid.min.js 10.9 来实现 Markdown 中 mermaid 图表的渲染
javascript·python·flask
喵手1 小时前
Python爬虫实战:电商价格监控系统 - 从定时任务到历史趋势分析的完整实战(附CSV导出 + SQLite持久化存储)!
爬虫·python·爬虫实战·零基础python爬虫教学·电商价格监控系统·从定时任务到历史趋势分析·采集结果sqlite存储
喵手1 小时前
Python爬虫实战:京东/淘宝搜索多页爬虫实战 - 从反爬对抗到数据入库的完整工程化方案(附CSV导出 + SQLite持久化存储)!
爬虫·python·爬虫实战·零基础python爬虫教学·京东淘宝页面数据采集·反爬对抗到数据入库·采集结果csv导出
B站_计算机毕业设计之家2 小时前
猫眼电影数据可视化与智能分析平台 | Python Flask框架 Echarts 推荐算法 爬虫 大数据 毕业设计源码
python·机器学习·信息可视化·flask·毕业设计·echarts·推荐算法