【llm 使用llama 小案例】

huggingfacehttps://huggingface.co/meta-llama

python 复制代码
from transformers import AutoTokenizer, LlamaForCausalLM

PATH_TO_CONVERTED_WEIGHTS = ''
PATH_TO_CONVERTED_TOKENIZER = ''  # 一般和模型地址一样

model = LlamaForCausalLM.from_pretrained(PATH_TO_CONVERTED_WEIGHTS)
tokenizer = AutoTokenizer.from_pretrained(PATH_TO_CONVERTED_TOKENIZER)
prompt = "Hey, are you conscious? Can you talk to me?"
inputs = tokenizer(prompt, return_tensors="pt")

# Generate
generate_ids = model.generate(inputs.input_ids, max_length=30)
tokenizer.batch_decode(generate_ids, skip_special_tokens=True,     
    clean_up_tokenization_spaces=False)[0]

> Hey, are you conscious? Can you talk to me?\nI'm not conscious, but I can talk to you.
相关推荐
Baihai_IDP11 小时前
驳“AI 泡沫论”:一场被误读的、正在进行中的产业结构性调整
人工智能·llm·aigc
深度学习机器11 小时前
如何选择合适的 AI Agent框架?OpenAI vs Claude vs LangGraph功能特点汇总
llm·openai·agent
余衫马1 天前
大语言模型(LLM)领域细分方向解析
人工智能·语言模型·自然语言处理·llm·领域方向
大模型教程1 天前
万字详解让大模型写出好代码:上下文窗口的工程化实践
程序员·llm·agent
大模型教程1 天前
AI大模型从0到1:你的90天蜕变计划,告别小白直通前沿!
程序员·llm·agent
AI大模型1 天前
RAG彻底爆了!一文读懂其架构演进及核心要点
程序员·llm·agent
阿加犀智能1 天前
QCS8550运行ModelFarm上的DeepSeek-R1-Distill-Qwen-7B模型
llm
AI大模型1 天前
用Macbook微调Qwen3!手把手教你用微调给Qwen起一个新名字
程序员·llm·agent
智泊AI1 天前
Agent(智能体)入门篇 | 什么是agent?
llm
Asthenia04122 天前
给小白讲神经网络:从全连接到注意力机制的铺垫
llm