以历史脉络为主,梳理AI开发需要掌握的基础知识。
历史脉络:
1950s-1980s 符号主义 专家系统 依赖人工规则,知识获取困难
1990s-2000s 统计学习 支持向量机 依赖特征工程,模式识别有限
2010-2016 深度学习 卷积神经网络 自动学习特征,计算机视觉突破
2017-2021 Transformer架构 BERT/GPT 自注意力机制,预训练大模型兴起
2022-2025 多模态 CLIP/GPT-4V 共享语义空间,跨模态内容生成
理论基础:
第一步,简单了解机器学习。
机器学习就是让计算机从大量数据中自己学习。
其数学与统计学基础包括:概率论、最优化理论、梯度下降、随机过程、贝叶斯推断、信息论。
核心概念包括:监督学习、无监督学习、半监督学习、强化学习、迁移学习、深度学习等等。涉及的数学对象有:向量、向量化、特征、嵌入、线性代数、矩阵、正态分布矩阵、零矩阵、张量。
关键技术包括:损失函数、正则化、交叉验证、模型评估指标(准确率、召回率等)、核方法。需理解核心问题如过拟合与欠拟合。
第二步,深入理解深度学习。
核心网络架构包括:卷积神经网络CNN、循环神经网络RNN及其变体LSTM、GRU,以及图神经网络GNN。
CNN组成部分:输入层、滤波器、点积计算的数学意义、隐藏层、加权求和、激活函数引入非线性变换、输出层、前向传播、反向传播、损失、优化权重算法、池化、残差连接。
训练中的关键技术与问题:权重初始化、梯度消失/爆炸、批量归一化、自适应优化器(如Adam)、正则化技术(如Dropout)。前向传播、反向传播是核心机制。
其他重要模型包括:自编码器、生成对抗网络。应用领域涵盖计算机视觉、自然语言处理等。
第三步,理解Transformer架构。
核心组件与流程:分词Token、Encoder-Decoder架构。
核心表示:词嵌入。
预训练任务:MLM(掩码语言建模)、NSP(下一句预测)等。
编码器Encoder发展:平均池化, RNN/LSTM, Transformer编码器。
Transformer编码器核心:自注意力机制,特别是缩放点积注意力与多头注意力机制;位置编码(如正弦编码、RoPE等位置偏置优化);前馈神经网络;层归一化。
解码器Decoder机制:训练、推理、自回归生成、掩码、交叉注意力。
第四步,了解高效微调PEFT。
微调范式:传统全量微调(Full-finetuning)。
主要PEFT技术分类:
• Additive(添加式):Adapters 、BA矩阵、prefix Tuning、Prompts Tuning。
• Prompt相关:Hard Prompt、 Soft Prompts、Prompt Search 、Prompt Encoder、Prompt Generator、P-TuningV1、P-TuningV2。
• 选择性微调:Selective。
• 低秩近似:LoRA、QLoRA、AdaLoRA。
• 模型压缩与加速:量化(包括双重量化)、SVD、知识蒸馏、模型压缩。
• 系统优化技术:存算分离技术、存储数据类型NF4、计算数据类型BF16、分页优化器。
训练与推理优化涉及:分布式训练、混合精度训练、模型并行、梯度检查点、动态计算图。
第五步,熟悉开发工具链。
关键工具与模式:Function Calling。
主流框架:LangChain及其核心组件:Model I/O, Chains、 Memory、 Agents。
系统与工程基础:计算框架(如PyTorch/TensorFlow)、硬件加速(GPU/TPU)、模型部署、服务化架构。
第六步,了解多模态模型。
核心思想:将视觉、语言等不同模态信息映射到共享语义空间,实现跨模态理解与生成。
关键技术:对比学习、对齐预训练、跨模态注意力、模态融合策略、统一表示学习。
学习方法和过程:按照步骤和关键词,对Deep seek提问,不停追问。
推荐书籍和课程:
1.《人工智能技术入门》 杨正洪
2.《人工智能技术》 华为技术有限公司
- 抖音:3Blue1Brown(线性代数十个视频)
4.《大模型实战:微调,优化和私有化部署》庄建
5.《大模型项目实战:Agent开发与应用》高强文
没完全看懂也没关系,大概理解了人工智能是什么,底层是什么样子后,就能去想和看一些好的项目,进行练手了。