10分钟揭秘大模型的原理

2022年11月底OpenAI发布的ChatGPT,一上线就引起了恐慌。我们在有大模型之前,使用百度、Bing搜索问题时,有可能找了几页也找不到自己想要的答案。而有了大模型之后,输出的答案要正确多了。关键是这个回答的正确率太可怕了。我用了几个月,发现它的答案不是说不对,而是提的问题要合理准确。

当然它最厉害的核心是能像人类的语言进行交流,不管是什么语言都可以,就算你写错了也没有问题,它都理解。这是基于生成式AI的高速发展的结果。生成式AI是通过缝合式创作生成一个新的内容。这让AI发展到了里程碑式的节点。

ChatGPT在回答问题的时候,是一个词一个词的往外蹦。这由它的原理而决定。

大模型的原理其实很简单,就是根据上下文来推理下一个文字是什么。然后会不断的文本生成。

从训练到推理的整个过程包括如下3个步骤:

  1. 预训练
  • 无监督学习,就是基于知识库进入自主学习

  • 模型在大数据集中自主学习

  1. 微调
  • 不是必需的步骤

  • 有监督

  • 通过在人工标的数据集上训练优化模型,使其"有用"、"安全"

  1. 推理
  • 与人在线、实时交互

  • 使用已经训练好的模型生成响应

Transformer模型的核心是自注意力机制,可有效的捕捉序列内各元素之间的关系。例子是一个动画: https://colab.research.google.com/github/tensorflow/tensor2tensor/blob/master/tensor2tensor/notebooks/hello_t2t.ipynb#scrollTo=OJKU36QAfqOC

这个例子是通过注意力机制判断这一句话中每一个文本之间的关系和语义关系。

当我们把内容放到这个transformer模型后,每一层的自注意力机制,都可以并行的去分析文本里面的不同信息,如GPT-3有96层,可以输出包含所有必要信息的最终词的隐藏状态,这样可以精准地预测下一个词是什么。通过这么多层的模型可以实现对文本有更深层次的理解,并通过大维度词向量来记录每一个词的上下文信息。从而达到如今能够跟人进行自由对话的智能化程度。

这就是整个大模型的工作原理。

相关推荐
大千AI助手15 小时前
LIFT:基于低秩引导的稀疏微调
人工智能·神经网络·lora·大模型·lift·大千ai助手·稀疏微调
逐云者12316 小时前
使用 FastAPI 构建大模型应用的系统教程(工程化实战指南)
大模型·fastapi·router·分层架构·算法工程·算法服务
KG_LLM图谱增强大模型1 天前
[Nature子刊]浙大SciToolAgent:用知识图谱驱动的科学智能体实现多工具集成
大模型·知识图谱·工具·科学研究·graphrag
多喝开水少熬夜2 天前
损失函数系列:focal-Dice-vgg
图像处理·python·算法·大模型·llm
Cyril_KI2 天前
大模型长文生成中的幻觉与事实性:研究进展综述
大模型·llm·github·综述·幻觉
喜欢吃豆2 天前
掌握本地化大语言模型部署:llama.cpp 工作流与 GGUF 转换内核全面技术指南
人工智能·语言模型·架构·大模型·llama·llama.cpp·gguf
长颈鹿仙女3 天前
发送 Prompt 指令:判断用户评价是好评还是差评
python·大模型
山顶夕景3 天前
【RL】Scaling RL Compute for LLMs
深度学习·大模型·强化学习
utmhikari3 天前
【GitHub探索】代码开发AI辅助工具trae-agent
人工智能·ai·大模型·llm·github·agent·trae
CoderJia程序员甲3 天前
GitHub 热榜项目 - 日榜(2025-11-02)
ai·开源·大模型·github·ai教程