一、什么是语言模型?

一、什么是语言模型?

各位读者好,欢迎收看我的新专栏大语言模型实战系列,本专栏主要讲述大模型实际操作部门内容,不会特别涉及底层概念,主要是了解和用,这次为第一节,什么是语言模型?

本节我们主要是调用一个实例来看看语言模型能做什么?

当我们使用LLM时,需要加载两个模型:

  • 生成模型本身
  • 其底层的分词器(tokenizer)
    分词器负责在将输入文本送入生成模型之前,将其分割成词元。我们可以在Hugging Face网站上找到分词器和模型,只需要传入相应的ID即可。

功能包

首先我们需要安装依赖功能包

python 复制代码
pip install transformers>=4.40.1 accelerate>=0.27.2

模型与分词器

第一步是将模型加载到 GPU 上以加快推理速度。请注意,我们将模型和分词器分开加载(非必要)。这里我们以microsoft/Phi-3-mini-4k-instruct作为模型的主路径。

python 复制代码
from transformers import AutoModelForCausalLM, AutoTokenizer

# Load model and tokenizer
model = AutoModelForCausalLM.from_pretrained(
    "microsoft/Phi-3-mini-4k-instruct",
    device_map="cuda",
    torch_dtype="auto",
    trust_remote_code=False,
)
tokenizer = AutoTokenizer.from_pretrained("microsoft/Phi-3-mini-4k-instruct")

输出:

虽然我们现在可以直接使用模型和分词器,但除此之外在transformers库种可以有简化过程,将其(模型、分词器和文本生成过程)封装在 pipeline 对象中,也就是装成一个单一的函数,就变得容易得多:

python 复制代码
from transformers import pipeline

# 创建流水线
generator = pipeline(
    "text-generation",
    model=model,
    tokenizer=tokenizer,
    return_full_text=False,
    max_new_tokens=500,
    do_sample=False
)

输出:

Device set to use cuda

The following generation flags are not valid and may be ignored: ['temperature']. Set TRANSFORMERS_VERBOSITY=info for more details.

注意:

  • return_full_text 将其设置为False时,只返回模型的输出结果,而不包含提示词
  • max_new_tokens 此为允许模型生成的最大词元数。通过限制,我们可以避免过长或异常的输出,因为某些模型可能会一直生成输出直到达到他们上下文窗口的限制。
  • do_sample 决定模型是否采用采样策略来选择下一个词元。设置为False代表模型将始终选择概率最高的下一个词元。

示例

最后,我们以用户身份创建提示并将其提供给模型:

python 复制代码
# 提示词(用户输入/查询)
messages = [
    {"role": "user", "content": "生成一个有关俄罗斯的笑话。"}
]

# 生成输出
output = generator(messages)
print(output[0]["generated_text"])

输出:

有一天,一个俄罗斯人在街上看着一只猫。他问:"它是俄罗斯的猫吗?"猫咪回答说:"不,我来自美国。"人惊讶地问:"那你是什么品种?"猫咪笑着回答:"我是猫咪,不管我的国籍。"

(注意每次生成都不相同哦!

相关推荐
ASKED_201914 分钟前
KDD Cup 2026 腾讯算法广告大赛赛题解读: UNI-REC (统一序列建模与特征交叉)
人工智能
fpcc19 分钟前
AI和大模型——Fine-tuning
人工智能·深度学习
爱问的艾文27 分钟前
八周带你手搓AI应用-Day4-赋予你的AI“记忆力”
人工智能
ACP广源盛1392462567339 分钟前
IX8024与科学大模型的碰撞@ACP#筑牢科研 AI 算力高速枢纽分享
运维·服务器·网络·数据库·人工智能·嵌入式硬件·电脑
向量引擎1 小时前
向量引擎接入 GPT Image 2 和 deepseek v4:一个 api key 把热门模型串起来,开发者终于不用深夜修接口了
人工智能·gpt·计算机视觉·aigc·api·ai编程·key
努力努力再努力FFF1 小时前
医生对AI辅助诊断感兴趣,作为临床人员该怎么了解和学习?
人工智能·学习
AI医影跨模态组学1 小时前
如何将纵向MRI深度学习特征与局部晚期直肠癌新辅助放化疗后的免疫微环境建立关联,并解释其对pCR及预后的机制
人工智能·深度学习·论文·医学·医学影像·影像组学
Empty-Filled1 小时前
AI生成测试用例功能怎么测:一个完整实战案例
网络·人工智能·测试用例
eastyuxiao1 小时前
设计一个基于 OpenClaw 的 AI 智能体来辅助交易
人工智能
波动几何2 小时前
因果动力学架构技能cda
人工智能