一、AI 总体与基础概念(General AI Concepts)
|------------------|---------------------------------|--------|--------------|
| 缩略语 | 全称 | 中文 | 说明 |
| AI | Artificial Intelligence | 人工智能 | 泛指使机器表现出智能行为 |
| ML | Machine Learning | 机器学习 | 通过数据学习模型参数 |
| DL | Deep Learning | 深度学习 | 基于多层神经网络的 ML |
| NN | Neural Network | 神经网络 | 模拟神经元连接的模型 |
| ANN | Artificial Neural Network | 人工神经网络 | NN 的正式叫法 |
| AGI | Artificial General Intelligence | 通用人工智能 | 类人泛化能力 |
| ANI | Artificial Narrow Intelligence | 狭义 AI | 当前主流 AI |
| Foundation Model | --- | 基础模型 | 大规模预训练通用模型 |
| Model Zoo | --- | 模型库 | 预训练模型集合 |
二、模型结构与网络架构(Model Architecture)
2.1 基础结构
|---------|------------------------------|---------|
| 缩略语 | 全称 | 说明 |
| FC | Fully Connected | 全连接层 |
| Conv | Convolution | 卷积操作 |
| CNN | Convolutional Neural Network | 卷积神经网络 |
| RNN | Recurrent Neural Network | 循环神经网络 |
| LSTM | Long Short-Term Memory | 长短期记忆网络 |
| GRU | Gated Recurrent Unit | 门控循环单元 |
| MLP | Multi-Layer Perceptron | 多层感知机 |
| BN | Batch Normalization | 批归一化 |
| LN | Layer Normalization | 层归一化 |
| GN | Group Normalization | 组归一化 |
| Dropout | --- | 随机失活 |
2.2 Transformer 体系
|-----------------|-----------------------------|-------------|
| 缩略语 | 全称 | 说明 |
| Transformer | --- | 注意力驱动模型架构 |
| SA | Self-Attention | 自注意力 |
| MHA | Multi-Head Attention | 多头注意力 |
| FFN | Feed Forward Network | 前馈子层 |
| PE | Positional Encoding | 位置编码 |
| RoPE | Rotary Positional Embedding | 旋转位置编码 |
| KV Cache | Key-Value Cache | 推理缓存机制 |
| Decoder-only | --- | GPT 类结构 |
| Encoder-Decoder | --- | T5 / BART 类 |
三、大模型(LLM)与生成式 AI(Generative AI)
3.1 LLM 核心概念
|---------------------|---------------------------------------------------------|----------|
| 缩略语 | 全称 | 说明 |
| LLM | Large Language Model | 大语言模型 |
| GPT | Generative Pre-trained Transformer | 生成式预训练模型 |
| BERT | Bidirectional Encoder Representations from Transformers | 双向编码模型 |
| T5 | Text-to-Text Transfer Transformer | 文本到文本模型 |
| MoE | Mixture of Experts | 混合专家模型 |
| SFT | Supervised Fine-Tuning | 监督微调 |
| RLHF | Reinforcement Learning from Human Feedback | 人类反馈强化学习 |
| DPO | Direct Preference Optimization | 偏好直接优化 |
| PPO | Proximal Policy Optimization | 强化学习算法 |
| Prompt | --- | 提示词 |
| In-Context Learning | --- | 上下文学习 |
3.2 生成模型类别
|------------------|-----------------------------------------|--------|
| 缩略语 | 全称 | 说明 |
| VAE | Variational Autoencoder | 变分自编码器 |
| GAN | Generative Adversarial Network | 生成对抗网络 |
| Diffusion | --- | 扩散模型 |
| DDPM | Denoising Diffusion Probabilistic Model | 扩散去噪模型 |
| Stable Diffusion | --- | 文生图模型 |
| CLIP | Contrastive Language--Image Pretraining | 文图对齐模型 |
四、视觉(CV)相关缩略语(Computer Vision)
|--------|-------------------------|----------------|
| 缩略语 | 全称 | 说明 |
| CV | Computer Vision | 计算机视觉 |
| ViT | Vision Transformer | 视觉 Transformer |
| ResNet | Residual Network | 残差网络 |
| YOLO | You Only Look Once | 实时目标检测 |
| R-CNN | Region-based CNN | 区域检测 |
| SSD | Single Shot Detector | 单阶段检测 |
| FPN | Feature Pyramid Network | 特征金字塔 |
| NMS | Non-Maximum Suppression | 非极大值抑制 |
| mAP | mean Average Precision | 检测指标 |
| IoU | Intersection over Union | 重叠度指标 |
五、自然语言处理(NLP)
|---------------|--------------------------------|-----------|
| 缩略语 | 全称 | 说明 |
| NLP | Natural Language Processing | 自然语言处理 |
| NLU | Natural Language Understanding | 语言理解 |
| NLG | Natural Language Generation | 语言生成 |
| Token | --- | 最小语义单元 |
| BPE | Byte Pair Encoding | 子词分词 |
| WordPiece | --- | BERT 分词方法 |
| SentencePiece | --- | 无监督分词 |
| POS | Part of Speech | 词性标注 |
| NER | Named Entity Recognition | 实体识别 |
| QA | Question Answering | 问答 |
| MT | Machine Translation | 机器翻译 |
六、训练与优化(Training & Optimization)
6.1 训练流程
|-------------|---------------------------|---------|
| 缩略语 | 全称 | 说明 |
| Epoch | --- | 全数据训练一次 |
| Step | --- | 一次参数更新 |
| Batch | --- | 一批样本 |
| LR | Learning Rate | 学习率 |
| WD | Weight Decay | 权重衰减 |
| AMP | Automatic Mixed Precision | 混合精度 |
| FP16 / BF16 | --- | 半精度 |
| FP32 | --- | 单精度 |
6.2 优化器
|---------|-----------------------------|----------|
| 缩略语 | 全称 | 说明 |
| SGD | Stochastic Gradient Descent | 随机梯度下降 |
| Adam | Adaptive Moment Estimation | 自适应优化 |
| AdamW | Adam with Weight Decay | 改进版 Adam |
| RMSProp | --- | 均方根传播 |
| LAMB | Layer-wise Adaptive Moments | 大模型优化器 |
七、分布式训练(Distributed Training)
|-----------|----------------------------|---------|
| 缩略语 | 全称 | 说明 |
| DP | Data Parallel | 数据并行 |
| MP | Model Parallel | 模型并行 |
| PP | Pipeline Parallel | 流水线并行 |
| TP | Tensor Parallel | 张量并行 |
| ZeRO | Zero Redundancy Optimizer | 显存优化 |
| NCCL | NVIDIA Collective Comm Lib | GPU 通信库 |
| AllReduce | --- | 集合通信操作 |
八、推理与部署(Inference & Deployment)
|--------------|------------------------------|--------------|
| 缩略语 | 全称 | 说明 |
| Inference | --- | 推理 |
| Latency | --- | 延迟 |
| Throughput | --- | 吞吐 |
| QPS | Queries Per Second | 每秒请求数 |
| KV Cache | --- | 推理缓存 |
| INT8 / INT4 | --- | 量化精度 |
| Quantization | --- | 量化 |
| Pruning | --- | 剪枝 |
| Distillation | --- | 知识蒸馏 |
| ONNX | Open Neural Network Exchange | 模型交换格式 |
| TensorRT | --- | NVIDIA 推理引擎 |
| vLLM | --- | 高性能 LLM 推理框架 |
九、训练与推理框架(Frameworks)
|-------------|------------------|
| 缩略语 | 说明 |
| PyTorch | 主流研究/工业框架 |
| TensorFlow | Google 框架 |
| JAX | 高性能数值计算 |
| Keras | 高层 API |
| HuggingFace | 模型/数据/工具生态 |
| DeepSpeed | 大模型训练 |
| Megatron-LM | Transformer 并行训练 |
| Fairseq | Meta NLP 框架 |
十、评测与指标(Metrics & Evaluation)
|------------|----------|---------|
| 缩略语 | 全称 | 说明 |
| Loss | --- | 损失函数 |
| Accuracy | --- | 准确率 |
| Precision | --- | 精确率 |
| Recall | --- | 召回率 |
| F1 | F1-score | 综合指标 |
| BLEU | --- | 翻译指标 |
| ROUGE | --- | 文本摘要 |
| Perplexity | --- | 语言模型困惑度 |
十一、AI 工程 & 系统相关
|-------------|------------|
| 缩略语 | 说明 |
| CUDA | GPU 计算 API |
| Tensor Core | GPU 矩阵单元 |
| FLOPs | 浮点运算量 |
| TOPS | 整数算力 |
| HBM | 高带宽内存 |
| NVLink | GPU 高速互联 |
| PCIe | 主机互联 |
| NUMA | 非一致内存访问 |