用 Python + LLM 实现一个智能对话

大型语言模型LLM最近比较火,所以我也来用LLM写个智能对话玩玩。

简介

大语言模型LLM全称是Large Language Models。LLM是指具有巨大参数量和极高语言理解能力的神经网络模型。这些模型被训练来理解和生成自然语言文本,能够执行多种自然语言处理(NLP)任务,如文本生成、翻译、摘要、问答等。 所以LLM可以做以下事情:

  • 文本生成:LLM可以生成各种类型的文本,如新闻、文章、小说等。
  • 智能对话系统:LLM可以用于构建智能对话系统,能够理解用户输入并生成合理的回复。
  • 信息检索和摘要:LLM可以帮助搜索引擎生成更准确的搜索结果摘要。
  • 语言翻译:LLM可以将一种语言翻译成另一种语言。
  • 语言理解和分析:LLM可以用于解析和理解自然语言文本,提取其中的信息和意义。

安装依赖

主要是安装transformers和torch

bash 复制代码
pip install transformers
bash 复制代码
pip install torch

加载模型和分词器

python 复制代码
tokenizer = GPT2Tokenizer.from_pretrained("gpt2")
model = GPT2LMHeadModel.from_pretrained("gpt2")

实现对话逻辑

python 复制代码
def chat(prompt, max_length=200):
    # 将输入文本编码成模型可识别的tokens
    input_ids = tokenizer.encode(prompt, return_tensors="pt")
    # 生成对话
    response_ids = model.generate(input_ids, max_length=max_length, num_return_sequences=1, temperature=0.9)
    # 解码tokens成文本字符串
    response_text = tokenizer.decode(response_ids[0], skip_special_tokens=True)
    return response_text

调用聊天函数

这里是循环聊天

python 复制代码
while True:
    user_input = input("You:")
    if user_input.lower() == "exit":
        print("Goodbye!")
        break
    response = chat(user_input)
    print("Bot:", response)

完整代码

python 复制代码
from transformers import GPT2LMHeadModel, GPT2Tokenizer

# 加载预训练的GPT-2模型和分词器
tokenizer = GPT2Tokenizer.from_pretrained("gpt2")
model = GPT2LMHeadModel.from_pretrained("gpt2")

def chat(prompt, max_length=200):
    # 将输入文本编码成模型可识别的tokens
    input_ids = tokenizer.encode(prompt, return_tensors="pt")

    # 生成对话response
    response_ids = model.generate(input_ids, max_length=max_length, num_return_sequences=1, temperature=0.9)

    # 解码response tokens成文本
    response_text = tokenizer.decode(response_ids[0], skip_special_tokens=True)
    return response_text

# 进入对话循环
while True:
    user_input = input("You:")
    if user_input.lower() == "exit":
        print("Goodbye!")
        break
    response = chat(user_input)
    print("Bot:", response)

目前模型训练还不够智能,所以对话稍显逊色。

之后实现有前端界面的,之后再更新文章。

未完待续。。。

相关推荐
Elastic 中国社区官方博客1 小时前
Elasticsearch:使用 Agent Builder 的 A2A 实现 - 开发者的圣诞颂歌
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
chools1 小时前
【AI超级智能体】快速搞懂工具调用Tool Calling 和 MCP协议
java·人工智能·学习·ai
郝学胜-神的一滴1 小时前
深度学习必学:PyTorch 神经网络参数初始化全攻略(原理 + 代码 + 选择指南)
人工智能·pytorch·python·深度学习·神经网络·机器学习
leobertlan1 小时前
好玩系列:用20元实现快乐保存器
android·人工智能·算法
笨笨饿1 小时前
#58_万能函数的构造方法:ReLU函数
数据结构·人工智能·stm32·单片机·硬件工程·学习方法
jr-create(•̀⌄•́)2 小时前
从零开始:手动实现神经网络识别手写数字(完整代码讲解)
人工智能·深度学习·神经网络
冬奇Lab2 小时前
一天一个开源项目(第78篇):MiroFish - 用群体智能引擎预测未来
人工智能·开源·资讯
冬奇Lab2 小时前
你的 Skill 真的好用吗?来自OpenAI的 Eval 系统化验证 Agent 技能方法论
人工智能·openai
数智工坊2 小时前
Transformer 全套逻辑:公式推导 + 原理解剖 + 逐行精读 - 划时代封神之作!
人工智能·深度学习·transformer
GreenTea2 小时前
AI 时代,工程师的不可替代性在哪里
前端·人工智能·后端