【llm 使用llama 小案例】

huggingfacehttps://huggingface.co/meta-llama

python 复制代码
from transformers import AutoTokenizer, LlamaForCausalLM

PATH_TO_CONVERTED_WEIGHTS = ''
PATH_TO_CONVERTED_TOKENIZER = ''  # 一般和模型地址一样

model = LlamaForCausalLM.from_pretrained(PATH_TO_CONVERTED_WEIGHTS)
tokenizer = AutoTokenizer.from_pretrained(PATH_TO_CONVERTED_TOKENIZER)
prompt = "Hey, are you conscious? Can you talk to me?"
inputs = tokenizer(prompt, return_tensors="pt")

# Generate
generate_ids = model.generate(inputs.input_ids, max_length=30)
tokenizer.batch_decode(generate_ids, skip_special_tokens=True,     
    clean_up_tokenization_spaces=False)[0]

> Hey, are you conscious? Can you talk to me?\nI'm not conscious, but I can talk to you.
相关推荐
又困又爱睡6 小时前
LLaMA-Factory(一)环境配置及包下载
llama
每天八杯水D6 小时前
LLaMA-Factory GLM4-9B-CHAT LoRA 微调实战
lora·微调·llama·peft·glm4-9b-chat
一只敲代码的猪6 小时前
Llama 3 模型系列解析(一)
大数据·python·llama
bastgia2 天前
Tokenformer: 下一代Transformer架构
人工智能·机器学习·llm
ibrahim2 天前
Llama 3.2 900亿参数视觉多模态大模型本地部署及案例展示
ai·大模型·llama·提示词
算力魔方AIPC2 天前
Meta重磅发布Llama 3.3 70B:开源AI模型的新里程碑
人工智能·llama
新智元2 天前
李飞飞谢赛宁:多模态 LLM「空间大脑」觉醒,惊现世界模型雏形!
人工智能·llm
RWKV元始智能3 天前
RWKV-7:极先进的大模型架构,长文本能力极强
人工智能·llm
zaim13 天前
计算机的错误计算(一百八十七)
人工智能·ai·大模型·llm·错误·正弦/sin·误差/error
张拭心3 天前
Google 提供的 Android 端上大模型组件:MediaPipe LLM 介绍
android·人工智能·llm