10分钟揭秘大模型的原理

2022年11月底OpenAI发布的ChatGPT,一上线就引起了恐慌。我们在有大模型之前,使用百度、Bing搜索问题时,有可能找了几页也找不到自己想要的答案。而有了大模型之后,输出的答案要正确多了。关键是这个回答的正确率太可怕了。我用了几个月,发现它的答案不是说不对,而是提的问题要合理准确。

当然它最厉害的核心是能像人类的语言进行交流,不管是什么语言都可以,就算你写错了也没有问题,它都理解。这是基于生成式AI的高速发展的结果。生成式AI是通过缝合式创作生成一个新的内容。这让AI发展到了里程碑式的节点。

ChatGPT在回答问题的时候,是一个词一个词的往外蹦。这由它的原理而决定。

大模型的原理其实很简单,就是根据上下文来推理下一个文字是什么。然后会不断的文本生成。

从训练到推理的整个过程包括如下3个步骤:

  1. 预训练
  • 无监督学习,就是基于知识库进入自主学习

  • 模型在大数据集中自主学习

  1. 微调
  • 不是必需的步骤

  • 有监督

  • 通过在人工标的数据集上训练优化模型,使其"有用"、"安全"

  1. 推理
  • 与人在线、实时交互

  • 使用已经训练好的模型生成响应

Transformer模型的核心是自注意力机制,可有效的捕捉序列内各元素之间的关系。例子是一个动画: https://colab.research.google.com/github/tensorflow/tensor2tensor/blob/master/tensor2tensor/notebooks/hello_t2t.ipynb#scrollTo=OJKU36QAfqOC

这个例子是通过注意力机制判断这一句话中每一个文本之间的关系和语义关系。

当我们把内容放到这个transformer模型后,每一层的自注意力机制,都可以并行的去分析文本里面的不同信息,如GPT-3有96层,可以输出包含所有必要信息的最终词的隐藏状态,这样可以精准地预测下一个词是什么。通过这么多层的模型可以实现对文本有更深层次的理解,并通过大维度词向量来记录每一个词的上下文信息。从而达到如今能够跟人进行自由对话的智能化程度。

这就是整个大模型的工作原理。

相关推荐
Mr.朱鹏9 小时前
5.LangChain零基础速通-LCEL链式调用
python·langchain·django·大模型·llm·virtualenv
嵌入式小企鹅10 小时前
大模型算法工程师面试宝典
人工智能·学习·算法·面试·职场和发展·大模型·面经
Luca_kill11 小时前
深度解构 Hermes Agent:从“中央调度”到“自我进化”的架构哲学
大模型·强化学习·agent框架·ai架构·hermes agent
Komorebi_999911 小时前
RAG-day2
大模型·rag
Fleshy数模12 小时前
基于 Qwen2.5-1.5B-Instruct 实现多轮对话与文本分类实践
人工智能·分类·大模型
Daydream.V13 小时前
本地部署大模型实现相关案例
大模型·本地部署大模型·本地模型案例
●VON14 小时前
鸿蒙原生APP开发实战指南:三套低成本AI辅助方案全解析
人工智能·华为·chatgpt·大模型·harmonyos·image
荔枝学Python14 小时前
Agent设计最强书籍:它真的把Agent讲解的非常透彻!!
人工智能·程序员·大模型·大语言模型·agent·ai大模型·智能体
哥本哈士奇(aspnetx)1 天前
提升 Text2SQL 准确率
大模型
zc.z1 天前
基于 LangChain4j 的 RAG 工作流智能体实战
langchain·大模型·springboot·rag智能体