Day25 - 大模型的三大架构

大模型

  • 大语言模型
  • Large Language Models(LLMs)
  • 参数量:B Billion 十亿
    • 类脑设计:参数看作脑细胞,脑细胞越多,越聪明
    • 数学视角:y=F(x),参数看作自变量,自变量越多,函数越复杂,越能映射复杂的关系
  • 训练平台:
    • 工程上:不可能脱离GPU,而且需要高性能GPU
  • 训练数据:
    • 预训练:18T语料
      • 18T表示18万亿,一本红楼梦约50万token,18T语料相当于3600万本红楼梦
  • 训练时长
    • 原来:3 ~ 6个月
    • 现在:1 ~ 2个月

质的变化

本质:天下大势,分久必合,合久必分

小模型时代:

  • 单一职责原则
    • 一个场景:
      • 单独一个模型
      • 单独一个数据集
      • 单独训练
      • 单独评估
      • 单独部署
      • 单独维护
  • 一个系统:
    • 挂了很多微服务
    • 挂了很多的小模型

大模型时代:AGI(Artificial General Intelligence)

  • 大一统
    • 一个系统:
      • 挂了一个大模型
        • 通过指令遵循,可以同时解决不同的问题
      • 多模态大模型

生成式人工智能 VS 判别式人工智能

Generative AI

创作性

如何进行人机协同是下一步的重点

具身机器人

大语言模型的架构

  • 架构一:Encoder - Decoder架构
    • 直接把 transformer 变厚即可
    • T5:Text to Text transfer Transformer
    • Google
    • 最正确、最正统、最没有歧义的路线,但死的最快。
      • 革命性的东西往往不按常理出牌,transformer的诞生代替了Seq2Seq,而Seq2Seq是全世界公认的生成式算法。
    • 首次提出:指令编码的基础理念
  • 架构二:Decoder - Only 架构
    • 把模型的复杂度降低
    • 除了GLM之外,这种架构是唯一的
      • LLaMA架构
        • LLaMA2
      • 千问系列
      • 豆包
      • 星火
      • kimi
  • 架构三:GLM(Prefix-Encoder-Only )架构
    • 融合 BERT 和 GPT 的优势,提出了一种混合结构
    • 理解上文:双向编码器的优势(BERT)
    • 生成下文:强大的自回归能力(GPT)
相关推荐
stereohomology3 分钟前
2026年人工智能技术趋势浅度解析
人工智能
2601_9583205711 分钟前
【小白易懂版】OpenClaw 飞书机器人绑定配置详细教程(含安装包)
人工智能·机器人·飞书·open claw·小龙虾·open claw安装
Chockong13 分钟前
05_yolox_s的后处理截断并导出onnx
深度学习·神经网络
AI创界者17 分钟前
《2026 视觉革命:深度测评 GPT-Image-2,基于 DMXAPI 实现 4K 超分与批量生图实战》
人工智能
云上码厂19 分钟前
2023年之前物理信息神经网络PINN papers
人工智能·深度学习·神经网络
aini_lovee22 分钟前
多目标粒子群优化(MOPSO)双适应度函数MATLAB实现
人工智能·算法·matlab
Cosolar23 分钟前
提示词工程面试题系列 - Zero-Shot Prompting 和 Few-Shot Prompting 的核心区别是什么?
人工智能·设计模式·架构
灵机一物28 分钟前
灵机一物AI原生电商小程序、PC端(已上线)-【无标Anthropic 研究深度解析:AI 对就业市场的实际冲击与高危职业排行题】
人工智能·ai·程序员·职业发展·anthropic·就业市场
电子科技圈29 分钟前
芯科科技在蓝牙亚洲大会展示汽车与边缘AI前沿蓝牙创新技术, 解锁车用、家居、健康及工商业等应用场景
人工智能·科技·嵌入式硬件·mcu·物联网·网络安全·汽车
A尘埃35 分钟前
深度学习之神经网络简介(FNN+CNN+RNN+LSTM+GRU+GAN+GNN+Transformer)
深度学习·神经网络