基于MindFormers实现GPT2模型的推理

前言

针对MindFormers的安装,可参考本专栏里的另一篇博客

安装MindFormers(昇腾910)-CSDN博客

pipeline方式

python 复制代码
from mindformers import pipeline
from mindformers import GPT2LMHeadModel, GPT2Config, GPT2Tokenizer
tok = GPT2Tokenizer.from_pretrained("gpt2")
gpt_model = GPT2LMHeadModel.from_pretrained("gpt2")
prompt="I love Shanghai"
text_generation = pipeline(task='text_generation', model=gpt_model, tokenizer=tok, max_length=50)
outputs=text_generation(prompt, top_k=3)
print(outputs)

持续更新中...

相关推荐
kkce29 分钟前
vsping 推出海外检测节点的核心目的
大数据·网络·人工智能
bin915329 分钟前
当AI优化搜索引擎算法:Go初级开发者的创意突围实战指南
人工智能·算法·搜索引擎·工具·ai工具
人工智能技术咨询.39 分钟前
深度学习—卷积神经网络
人工智能
机器之心40 分钟前
Manus被收购,智谱也定了8天后上市
人工智能·openai
王中阳Go1 小时前
手把手教你用 Go + Eino 搭建一个企业级 RAG 知识库(含代码与踩坑)
人工智能·后端·go
Coder个人博客1 小时前
Llama.cpp 整体架构分析
人工智能·自动驾驶·llama
江上鹤.1481 小时前
Day 50 CBAM 注意力机制
人工智能·深度学习
deephub1 小时前
大规模向量检索优化:Binary Quantization 让 RAG 系统内存占用降低 32 倍
人工智能·大语言模型·向量检索·rag
人工智能培训2 小时前
深度学习—卷积神经网络(1)
人工智能·深度学习·神经网络·机器学习·cnn·知识图谱·dnn
ㄣ知冷煖★2 小时前
【Google系列】AI智能体技术白皮书
人工智能·agent