给自己做一个 ChatGPT:基于 Gradio 的本地 LLM 网页对话界面

给自己做一个 ChatGPT:基于 Gradio 的本地 LLM 网页对话界面

摘要 :黑底白字的命令行虽然极客,但不够直观。今天我们将使用 Python 领域最流行的机器学习界面库 Gradio ,为我们在 RTX 3090 上微调的 Qwen/Llama 模型穿上一件漂亮的"外衣"。我们将实现流式输出 (Streaming),让 AI 的回答像打字机一样一个个字蹦出来,体验拉满!

关键词Gradio WebUI Chatbot 流式输出 RTX 3090


1. 准备工作

首先,我们需要安装 Gradio。

bash 复制代码
conda activate llm_learn
pip install gradio

2. 编写 WebUI 代码

在工作目录下新建 web_demo.py

我们将以 Qwen2.5-7B 为例(因为它聊起天来更有趣)。

python 复制代码
from unsloth import FastLanguageModel
import torch
import gradio as gr
from threading import Thread
from transformers import TextIteratorStreamer

# ===========================
# 1. 模型加载 (只运行一次)
# ===========================
model_path = "lora_model" # 指向我们微调 Qwen 的目录
max_seq_length = 2048

print(f"🚀 正在加载模型: {model_path}...")
model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = model_path,
    max_seq_length = max_seq_length,
    dtype = None,
    load_in_4bit = True,
)
FastLanguageModel.for_inference(model)

# ===========================
# 2. 定义聊天逻辑 (支持流式)
# ===========================
def chat_stream(message, history):
    # message: 用户当前的输入
    # history: 之前的对话记录 [[user, bot], [user, bot]...]
    
    # 构造 Prompt (Qwen 格式)
    # 这里我们简化处理,只取最近一轮对话,实际项目可以拼接 history
    prompt = f"""<|im_start|>user
{message}<|im_end|>
<|im_start|>assistant
"""
    
    inputs = tokenizer([prompt], return_tensors="pt").to("cuda")
    
    # 定义流式输出器
    streamer = TextIteratorStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)
    generation_kwargs = dict(
        inputs, 
        streamer=streamer, 
        max_new_tokens=512, 
        temperature=0.3,
    )
    
    # 在独立线程中运行生成,主线程读取流
    thread = Thread(target=model.generate, kwargs=generation_kwargs)
    thread.start()
    
    # 逐步返回生成的文字
    partial_text = ""
    for new_text in streamer:
        partial_text += new_text
        yield partial_text

# ===========================
# 3. 搭建界面
# ===========================
demo = gr.ChatInterface(
    fn=chat_stream,
    title="🤖 我的专属 Qwen 助手 (RTX 3090版)",
    description="这是我在本地微调并部署的大模型,支持流式对话!",
    examples=["RTX 3090 适合做深度学习吗?", "请用 Python 写一个快排", "你是谁?"],
    theme=gr.themes.Soft()
)

if __name__ == "__main__":
    # share=True 可以生成一个公网链接发给朋友体验
    demo.launch(server_name="0.0.0.0", share=False)

3. 启动服务

bash 复制代码
python web_demo.py

终端会输出:
Running on local URL: http://0.0.0.0:7860

打开浏览器访问 http://localhost:7860

体验亮点

  • 打字机效果:当你问问题时,AI 的回答是实时蹦出来的,不用等十几秒才看到结果。
  • 历史记录gr.ChatInterface 自动帮你处理了对话气泡的 UI。
  • 专属知识 :试试问它 "RTX 3090 适合做深度学习吗?",它会用你微调过的知识回答你!

4. 进阶玩法

如果你想让朋友也能通过互联网访问这个界面,只需将最后一行代码改为:

python 复制代码
demo.launch(share=True)

Gradio 会自动生成一个为期 72 小时的免费公网链接(类似 https://xxxx.gradio.live)。

尽情享受你的私人 GPT 吧!

相关推荐
向量引擎小橙14 小时前
智能体“组团”时代:通信协议标准化如何颠覆未来协作模式?
大数据·人工智能·深度学习·集成学习
老吴学AI15 小时前
系列报告十二:(HAI) What workers really want from AI?
人工智能
喜欢吃豆15 小时前
LangChain 架构深度解析:从中间件机制到人机协同 SQL 智能体实战报告
人工智能·中间件·架构·langchain·大模型
Mintopia15 小时前
如何结合 AI,为未来社交群体构建「信任桥梁」
人工智能·react native·架构
电商API_1800790524715 小时前
大麦网API实战指南:关键字搜索与详情数据获取全解析
java·大数据·前端·人工智能·spring·网络爬虫
蚍蜉撼树谈何易15 小时前
一、语音识别基础(1.1 语音特征的提取)
人工智能·语音识别
线束线缆组件品替网15 小时前
Conxall 防水线缆在户外工控中的布线实践
运维·人工智能·汽车·电脑·材料工程·智能电视
皇族崛起15 小时前
【视觉多模态】基于视觉AI的人物轨迹生成方案
人工智能·python·计算机视觉·图文多模态·视觉多模态
dundunmm15 小时前
【每天一个知识点】本体论
人工智能·rag·本体论
nimadan1215 小时前
**免费有声书配音软件2025推荐,高拟真度AI配音与多场景
人工智能·python