基于MindFormers实现GPT2模型的推理

前言

针对MindFormers的安装,可参考本专栏里的另一篇博客

安装MindFormers(昇腾910)-CSDN博客

pipeline方式

python 复制代码
from mindformers import pipeline
from mindformers import GPT2LMHeadModel, GPT2Config, GPT2Tokenizer
tok = GPT2Tokenizer.from_pretrained("gpt2")
gpt_model = GPT2LMHeadModel.from_pretrained("gpt2")
prompt="I love Shanghai"
text_generation = pipeline(task='text_generation', model=gpt_model, tokenizer=tok, max_length=50)
outputs=text_generation(prompt, top_k=3)
print(outputs)

持续更新中...

相关推荐
生医转码,四海为家6 分钟前
零基础-动手学深度学习-6.6 卷积神经网络(LeNet)
人工智能·深度学习·cnn
无名工程师11 分钟前
AI 学习过程中各阶段的学习重点、时间规划以及不同方向的选择与建议等内容
人工智能·学习
WXX_s33 分钟前
【OpenCV篇】OpenCV——03day.图像预处理(2)
人工智能·python·opencv·学习·计算机视觉
有才不一定有德1 小时前
深入剖析 MetaGPT 中的提示词工程:WriteCode 动作的提示词设计
人工智能·aigc·提示词工程
花月mmc1 小时前
CanMV-K230 AI学习笔记系列
人工智能·笔记·学习
s1ckrain2 小时前
【论文阅读】ON THE ROLE OF ATTENTION HEADS IN LARGE LANGUAGE MODEL SAFETY
论文阅读·人工智能·语言模型·大模型安全
Jackilina_Stone2 小时前
【论文|复现】YOLOFuse:面向多模态目标检测的双流融合框架
人工智能·python·目标检测·计算机视觉·融合
Java中文社群2 小时前
Coze开源版?别吹了!
人工智能·后端·开源
机器之心2 小时前
硬核「吵」了30分钟:这场大模型圆桌,把AI行业的分歧说透了
人工智能