gpt-2模型训练后应用

一、生成的文件集:

根据上篇文章训练后的数据进行训练后,使用训练好的数据集:

二、代码样例实现:

复制代码
from transformers import GPT2Tokenizer, GPT2LMHeadModel


tokenizer = GPT2Tokenizer.from_pretrained('./gpt2-model')
model = GPT2LMHeadModel.from_pretrained('./gpt2-model')

tokenizer.save_pretrained('./results/tokenizer')
model.save_pretrained('./results/model')

# 加载训练好的模型和tokenizer
tokenizer = GPT2Tokenizer.from_pretrained('./results/tokenizer')
model = GPT2LMHeadModel.from_pretrained('./results/model')

# 生成回答示例
question = "什么是高血压的最佳治疗方法?"
input_text = f"提问: {question}\n回答:"
input_ids = tokenizer.encode(input_text, return_tensors='pt')

output = model.generate(input_ids, max_length=100, top_k=50, top_p=0.95, temperature=0.7, do_sample=True)
answer = tokenizer.decode(output[0], skip_special_tokens=True).split("回答:")[1].strip()

print("问题:", question)
print("回答:", answer)
相关推荐
TTBIGDATA几秒前
【Atlas】Atlas 搜索时报 `__AtlasUserProfile` 不存在导致事务回滚
开发语言·python·ambari·kerberos·ranger·atlas·bigtop
apcipot_rain2 分钟前
python与人工智能代码基础
人工智能·python·机器学习
海天一色y12 分钟前
用Python和Pygame从零打造植物大战僵尸:完整技术解析
开发语言·python·pygame
嫂子的姐夫12 分钟前
029-rs5:欧治
爬虫·python·逆向
两万五千个小时19 分钟前
构建mini Claude Code:03 - TodoWrite:让模型按计划执行
人工智能·python
用户4261557761023 分钟前
Linux服务器排障实战:从CPU飙高到内存泄漏的排查套路
python
小雨中_27 分钟前
4.1 Megatron-LM:千卡级集群预训练的“硬核”框架
人工智能·python·深度学习·机器学习·llama
星空椰28 分钟前
FastAPI 进阶:中间件、依赖注入与 ORM
python·fastapi
高洁0142 分钟前
多模态大模型的统一表征与推理范式
人工智能·python·深度学习·机器学习·transformer
啊阿狸不会拉杆43 分钟前
《计算机视觉:模型、学习和推理》第 8 章-回归模型
人工智能·python·学习·机器学习·计算机视觉·回归·回归模型