【llm 使用llama 小案例】

huggingfacehttps://huggingface.co/meta-llama

python 复制代码
from transformers import AutoTokenizer, LlamaForCausalLM

PATH_TO_CONVERTED_WEIGHTS = ''
PATH_TO_CONVERTED_TOKENIZER = ''  # 一般和模型地址一样

model = LlamaForCausalLM.from_pretrained(PATH_TO_CONVERTED_WEIGHTS)
tokenizer = AutoTokenizer.from_pretrained(PATH_TO_CONVERTED_TOKENIZER)
prompt = "Hey, are you conscious? Can you talk to me?"
inputs = tokenizer(prompt, return_tensors="pt")

# Generate
generate_ids = model.generate(inputs.input_ids, max_length=30)
tokenizer.batch_decode(generate_ids, skip_special_tokens=True,     
    clean_up_tokenization_spaces=False)[0]

> Hey, are you conscious? Can you talk to me?\nI'm not conscious, but I can talk to you.
相关推荐
是Dream呀5 小时前
OpenAI与百度同日竞速,文心5.0以原生全模态重新定义AI理解力
语言模型·llm·aigc·文心一言·ernie-5.0
uncle_ll8 小时前
RAG系统中的文本分块技术:从基础策略到智能分块的深度解析
llm·agent·dify·rag
沛沛老爹9 小时前
检索增强微调(RAFT)如何重塑慢病健康管理?——从技术原理到落地实践
llm·raft·rag·ai入门·慢病管理
沛沛老爹12 小时前
AI入门知识之RAFT方法:基于微调的RAG优化技术详解
人工智能·llm·sft·raft·rag
speop16 小时前
Hello-agents TASK03 第四章节 智能体经典范式构建
llm
常先森16 小时前
【解密源码】 RAGFlow 切分最佳实践- paper 篇
架构·llm·agent
大千AI助手1 天前
Prefix-Tuning:大语言模型的高效微调新范式
人工智能·神经网络·自然语言处理·llm·prefix-tuning·大千ai助手·前缀微调
三翼鸟数字化技术团队1 天前
基于LLM 的 RAG 应用开发实战
llm