Chainlit结合百度飞浆的ocr识别和nlp自然语言处理做图片文字信息提取

PP飞桨简介

PaddlePaddle(PArallel Distributed Deep LEarning),是由百度公司开发的一款开源深度学习平台,支持动态和静态图模式,提供了从模型构建到训练、预测等一系列的功能。PaddlePaddle 的设计目标是让开发者能够更容易地实现、训练和部署自己的深度学习模型。它支持多种操作系统,并提供了多种编程接口,包括 Python 和 C++。

  • PaddleOCR:PaddleOCR 是基于 PaddlePaddle 的 OCR(Optical Character Recognition,光学字符识别)工具包,主要用于文字检测和识别任务。它可以识别多种语言的文字,并且支持多种预训练模型。PaddleOCR 提供了一个简单易用的接口,让用户能够快速地进行文字识别任务,同时也可以根据具体需求进行模型的微调和扩展。

  • Paddlenlp:Paddlenlp 是一个自然语言处理(NLP, Natural Language Processing)工具包,基于 PaddlePaddle 构建。它为文本分类、命名实体识别、情感分析等多种 NLP 任务提供了预训练模型和相应的 API。Paddlenlp 旨在帮助研究人员和开发者快速构建和测试 NLP 模型,并提供了丰富的中文预训练模型资源。

官网地址 :https://www.paddlepaddle.org.cn/

快速上手

创建一个文件,例如"chainlit_chat"

bash 复制代码
mkdir chainlit_chat

进入 chainlit_chat文件夹下,执行命令创建python 虚拟环境空间(需要提前安装好python sdkChainlit 需要python>=3.8。,具体操作,由于文章长度问题就不在叙述,自行百度),命令如下:

bash 复制代码
python -m venv .venv
  • 这一步是避免python第三方库冲突,省事版可以跳过
  • .venv是创建的虚拟空间文件夹可以自定义

接下来激活你创建虚拟空间,命令如下:

bash 复制代码
#linux or mac
source .venv/bin/activate
#windows
.venv\Scripts\activate

在项目根目录下创建requirements.txt,内容如下:

bash 复制代码
chainlit~=1.1.306
paddlepaddle
paddleocr
paddlenlp
colorama
openai

在项目根目录下创建.env环境变量,配置如下:

bash 复制代码
OPENAI_BASE_URL="https://open.bigmodel.cn/api/paas/v4"
OPENAI_API_KEY="your-api-key"
  • OPENAI_BASE_URL 是 openai的api 的base地址,如果你能直接使用openai,这可以不设置,这里我用的是智谱GLM-4,因为他和openai的接口兼容
  • OPENAI_API_KEY 替换成你自己的API 密匙

执行以下命令安装依赖:

bash 复制代码
pip install -r .\requirements.txt
  • 安装后,项目根目录下会多出.chainlit.files文件夹和chainlit.md文件

在项目根目录下创建app.py文件,代码如下:

python 复制代码
import base64
import re

import chainlit as cl
from chainlit.input_widget import Select, Slider, Switch
from openai import AsyncOpenAI
from paddleocr import PaddleOCR

from fp import ocr_nlp_processor

# 初始化 PaddleOCR 模型
# 需运行一次以下载并加载模型到内存中
ocr = PaddleOCR(use_angle_cls=True, lang="ch")

client = AsyncOpenAI()


def encode_image(image_path):
    with open(image_path, "rb") as image_file:
        return base64.b64encode(image_file.read()).decode("utf-8")


@cl.on_settings_update
async def on_settings_update(settings: cl.chat_settings):
    cl.user_session.set("settings", settings)


# 提取数字
def get_number(value):
    # 提取文本中的数字部分
    number_pattern = re.compile(r'\d+')
    result = number_pattern.search(value)

    if result:
        extracted_number = result.group()
        return f"'{extracted_number}"  # 添加'
    else:
        return value  # 如果没有找到数字,直接返回原始值


@cl.step(type="tool", name="图片OCR识别")
async def tool(images, content):
    text_result = ""
    if images:
        for image in images:
            print(image)
            # 使用 PaddleOCR 模型进行文字识别
            result = ocr.ocr(image.path, cls=True)
            # 打印识别结果
            print(result)
            for idx in range(len(result)):
                res = result[idx]
                for line in res:
                    text_result += line[1][0]+'\n'
    ocr_nlp_processor(text_result)
    return text_result


@cl.on_chat_start
async def start_chat():
    settings = await cl.ChatSettings(
        [
            Select(
                id="Model",
                label="Model",
                values=["llava:7b", "qwen-vl-plus", "qwen-vl-max"],
                initial_index=0,
            ),
            Slider(
                id="Temperature",
                label="Temperature",
                initial=0.5,
                min=0,
                max=2,
                step=0.1,
            ),
            Slider(
                id="MaxTokens",
                label="MaxTokens",
                initial=1000,
                min=1000,
                max=3000,
                step=100,
            ),
            Switch(id="Streaming", label="Stream Tokens", initial=True),
        ]
    ).send()
    cl.user_session.set("settings", settings)
    content = "你好,我是泰山AI智能客服,有什么可以帮助您吗?"
    msg = cl.Message(content=content)
    await msg.send()


@cl.on_message
async def on_message(message: cl.Message):
    images = [file for file in message.elements if "image" in file.mime]
    msg = cl.Message(content="")
    await msg.send()
    tool_res = await tool(images, message.content)
    await msg.stream_token(tool_res)
    await msg.update()


async def on_message1(message: cl.Message):
    settings = cl.user_session.get("settings")
    streaming = settings['Streaming']
    images = [file for file in message.elements if "image" in file.mime]
    msg = cl.Message(content="")
    await msg.send()
    tool_res = await tool(images)
    elements = []
    if tool_res:
        messages = [
            {
                "role": "user",
                "content": [{"type": "text", "text": f"{tool_res},将内容格式化为xx年纪xx科目输出"}],
            }
        ]
        response = await client.chat.completions.create(
            model=settings['Model'],
            messages=messages,
            temperature=settings['Temperature'],
            max_tokens=int(settings['MaxTokens']),
            stream=streaming
        )
        if streaming:
            async for part in response:
                if token := part.choices[0].delta.content or "":
                    await msg.stream_token(token)
                    msg.elements = elements
        else:
            if token := response.choices[0].message.content or "":
                await msg.stream_token(token)
    else:
        await msg.stream_token("不能识别")
    await msg.update()

在项目根目录下创建fp.py文件,代码如下:

python 复制代码
import os
import time

from colorama import Fore
from paddlenlp import Taskflow
from paddleocr import PaddleOCR

ocr = PaddleOCR(use_angle_cls=True, lang="ch")

# 获取当前脚本文件的目录
script_directory = os.path.dirname(os.path.abspath(__file__))

# 构建 blank.jpg 的路径
blank_image_path = os.path.join(script_directory, "blank.jpg")


def ocr_nlp_processor(text):
    """
    将OCR和NLP结合处理的函数。

    返回:
    无,直接将识别结果写入到指定的输出文件中。
    """
    schema = ['教育部审定', '年级', '出版社']
    # 初始化NLP任务
    docPromptTask = Taskflow("information_extraction", schema=schema)

    # 记录程序开始时间
    start_time = time.time()
    # 执行NLP任务
    nlp_result = docPromptTask(text)
    print('nlp_result', nlp_result)
    # 计算程序执行时间
    end_time = time.time()
    total_time_seconds = end_time - start_time

    # 打印文件处理完成的消息和运行总耗时
    print(Fore.GREEN + f"==> 本次NLP运行总耗时:{total_time_seconds:.2f} 秒")

运行应用程序

要启动 Chainlit 应用程序,请打开终端并导航到包含的目录app.py。然后运行以下命令:

bash 复制代码
 chainlit run app.py -w   
  • -w标志告知 Chainlit 启用自动重新加载,因此您无需在每次更改应用程序时重新启动服务器。您的聊天机器人 UI 现在应该可以通过http://localhost:8000访问。
  • 自定义端口可以追加--port 80

启动后界面如下:

  • 上传图片通过paddleocr识别到了图片中的文字信息,当然对于字体特别小的,可能会识别错误
  • 再使用paddlenlp框架提取中文本中你需要的信息即可

相关文章推荐

《Chainlit快速实现AI对话应用的界面定制化教程》
《Chainlit接入FastGpt接口快速实现自定义用户聊天界面》
《使用 Xinference 部署本地模型》
《Fastgpt接入Whisper本地模型实现语音输入》
《Fastgpt部署和接入使用重排模型bge-reranker》
《Fastgpt部署接入 M3E和chatglm2-m3e文本向量模型》
《Fastgpt 无法启动或启动后无法正常使用的讨论(启动失败、用户未注册等问题这里)》
《vllm推理服务兼容openai服务API》
《vLLM模型推理引擎参数大全》
《解决vllm推理框架内在开启多显卡时报错问题》
《Ollama 在本地快速部署大型语言模型,可进行定制并创建属于您自己的模型》

相关推荐
sp_fyf_202435 分钟前
【大语言模型】ACL2024论文-19 SportsMetrics: 融合文本和数值数据以理解大型语言模型中的信息融合
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理
思通数科多模态大模型2 小时前
10大核心应用场景,解锁AI检测系统的智能安全之道
人工智能·深度学习·安全·目标检测·计算机视觉·自然语言处理·数据挖掘
龙的爹23333 小时前
论文翻译 | RECITATION-AUGMENTED LANGUAGE MODELS
人工智能·语言模型·自然语言处理·prompt·gpu算力
sp_fyf_20243 小时前
【大语言模型】ACL2024论文-18 MINPROMPT:基于图的最小提示数据增强用于少样本问答
人工智能·深度学习·神经网络·目标检测·机器学习·语言模型·自然语言处理
爱喝白开水a3 小时前
Sentence-BERT实现文本匹配【分类目标函数】
人工智能·深度学习·机器学习·自然语言处理·分类·bert·大模型微调
Guofu_Liao5 小时前
大语言模型中Softmax函数的计算过程及其参数描述
人工智能·语言模型·自然语言处理
IT闫5 小时前
使用微信小程序调用飞桨PaddleX平台自行训练的模型——微信小程序用训练的牡丹花模型Demo测试
人工智能·paddlepaddle
北京鹏生科技有限公司6 小时前
EcoVadis审核是什么?EcoVadis审核流程包括什么?
大数据·百度
曼城周杰伦6 小时前
自然语言处理:第六十二章 KAG 超越GraphRAG的图谱框架
人工智能·pytorch·神经网络·自然语言处理·chatgpt·nlp·gpt-3
Donvink6 小时前
多模态大语言模型——《动手学大模型》实践教程第六章
人工智能·深度学习·语言模型·自然语言处理·llama