1. 基础概念类
| 英文 | 中文意思 | 正确中文近似读音 | 容易读错点 |
|---|---|---|---|
| deep learning | 深度学习 | 滴普 勒宁 | learning 不是"乐宁",更像"勒宁" |
| machine learning | 机器学习 | mə-SHIN 勒宁 / 么-辛 勒宁 | machine 重音在后面,不读"马琴" |
| artificial intelligence | 人工智能 | ar-tə-FI -shəl in-TEL-ə-jəns | artificial 不读"阿提非cial" |
| neural network | 神经网络 | NOO -rəl NET -work / 纽-若 网络 | neural 不是"牛ral",中间要轻 |
| model | 模型 | MAA -dəl / 妈-斗 | 不读"莫得儿" |
| algorithm | 算法 | AL -gə-rith-əm / 艾尔- gə -瑞- thəm | 不是"阿尔狗瑞森" |
| framework | 框架 | FRAME -work / 弗瑞姆-沃克 | frame 要读"弗瑞姆" |
| architecture | 网络结构 / 架构 | AR -ki-tek-chər / 阿-ki-泰克-彻 | chitecture 不读"吃特可特" |
| module | 模块 | MAA -jool / 妈-久儿 | 美式常读"妈久儿",不是"莫丢" |
| layer | 层 | LAY -ər / 雷-儿 | 不读"拉yer" |
| block | 模块块 | BLOCK / 布洛克 | ck 收尾要短 |
| feature | 特征 | FEE -chər / 菲-彻 | 不读"非啊特ure" |
| representation | 表征 | rep-ri-zen-TAY-shən | 重音在 TAY,不在前面 |
| embedding | 嵌入表示 | em-BED -ding / 恩-拜德-丁 | bed 是"拜德",不是"比德" |
| dimension | 维度 | də-MEN -shən / də-门-神 | 重音在 MEN |
| vector | 向量 | VEK -tər / 维克-特儿 | 不是"威克托" |
| matrix | 矩阵 | MAY -triks / 梅-triks | 不是"马trix" |
| tensor | 张量 | TEN -sər / 滕-瑟 | 不是"ten索" |
这一类最容易读错:
parameter 不在这一类,但和 tensor/model 常一起出现
architecture = 阿-ki-泰克-彻
algorithm = 艾尔-gə-瑞-thəm
embedding = 恩-拜德-丁
dimension = də-门-神
tensor = 滕-瑟
2. 参数、梯度、优化类
| 英文 | 中文意思 | 正确中文近似读音 | 容易读错点 |
|---|---|---|---|
| parameter | 参数 | pə-RA -mə-tər / 坡-RA-么-特儿 | 不读"帕拉米特" |
| weight | 权重 | WAYT / 为特 | gh 不发音 |
| bias | 偏置 | BAI -əs / 拜-əs | 不是"比亚斯" |
| gradient | 梯度 | GRAY -di-ənt / 格瑞-迪-ənt | 不是"格拉迪恩特" |
| backpropagation | 反向传播 | back-prop-ə-GAY-shən | 重音在 GAY |
| backward | 反向 | BAK -wərd / 拜克-沃德 | back 是"拜克"不是"巴克" |
| forward | 前向 | FOR -wərd / 佛/福-沃德 | ward 轻读 |
| optimize | 优化 | OP -tə-maiz / 奥普-特-麦兹 | mize 读"麦兹",不是"米兹" |
| optimizer | 优化器 | OP -tə-mai-zər / 奥普-特-麦-zer | 重音在 OP |
| optimization | 优化过程 | op-tə-mə-ZAY-shən | 重音变到 ZAY |
| learning rate | 学习率 | LER -ning rate / 勒-宁 瑞特 | learning 不是"乐宁" |
| scheduler | 调度器 | SKE -joo-lər / 斯开-久-勒 | 美式多读 SKE |
| momentum | 动量 | mə-MEN -təm / mə-门-腾 | 重音在 MEN |
| decay | 衰减 | də-KAY / də-凯 | 重音在后面 |
| regularization | 正则化 | reg-yə-lə-rə-ZAY-shən | 重音在 ZAY |
| update | 更新 | up-DAYT / 阿普-得ei特 | 动词重音在后面 |
| step | 一步更新 | STEP / 斯泰普 | p 要收住 |
| convergence | 收敛 | kən-VER-jəns | 重音在 VER |
| divergence | 发散 | dai-VER-jəns | di 这里近似"dai" |
这一类最容易读错:
parameter = 坡-RA-么-特儿,不是帕拉米特
optimize = 奥普-特-麦兹,不是奥普题米兹
optimization = op-tə-mə-ZAY-shən,重音变化
gradient = 格瑞-迪-ənt,不是格拉迪恩特
bias = 拜-əs,不是比亚斯
3. 训练流程类
| 英文 | 中文意思 | 正确中文近似读音 | 容易读错点 |
|---|---|---|---|
| train | 训练 | TRAYN / 垂恩 | tr 连起来 |
| training | 训练过程 | TRAY-ning / 垂-宁 | 不是"特rain宁" |
| validation | 验证 | va-lə-DAY-shən | 重音在 DAY |
| test | 测试 | TEST / 泰斯特 | t 收尾 |
| inference | 推理 | IN -fə-rəns / 因-fə-rəns | 重音在 IN |
| prediction | 预测 | pri-DIK-shən | 重音在 DIK |
| output | 输出 | OUT -put / 奥特-普特 | 名词前重 |
| input | 输入 | IN -put / 因-普特 | 名词前重 |
| target | 目标值 | TAR -git / 塔-git | get 轻读像 git |
| label | 标签 | LAY -bəl / 雷-bəl | 不是"拉bel" |
| dataset | 数据集 | DAY -tə-set / 得ei-tə-set | data 美式常读 DAY-tə |
| data loader | 数据加载器 | DAY -tə LOW-dər | loader 是 LOW-der |
| batch | 批次 | BATCH / 拜吃 | tch 像"吃" |
| batch size | 批大小 | BATCH size / 拜吃 赛兹 | size 读"赛兹" |
| epoch | 训练轮数 | EH -pok / 艾-pok | 不是"伊破吃" |
| iteration | 迭代 | i-tə-RAY-shən | 重音在 RAY |
| sample | 样本 | SAM -pəl / 三-pəl | ple 轻读 |
| shuffle | 打乱 | SHUH -fəl / 沙-fəl | 不是"舒佛" |
| augment | 增强 | aug-MENT / 奥格-门特 | 动词重音在后 |
| augmentation | 数据增强 | aug-men-TAY-shən | 重音在 TAY |
这一类最容易读错:
epoch = 艾-pok,不是伊破吃
iteration = i-tə-RAY-shən,不是 i-ter-ra-tion
dataset = DAY-tə-set
validation = va-lə-DAY-shən
inference = IN-fə-rəns
4. 损失函数与评估指标类
| 英文 | 中文意思 | 正确中文近似读音 | 容易读错点 |
|---|---|---|---|
| loss | 损失 | LOSS / 洛斯 | o 类似"奥/洛" |
| loss function | 损失函数 | LOSS FUNC-shən / 洛斯 方克-神 | function 读方克神 |
| criterion | 损失准则 | krai-TEER-ri-ən | 很容易读错 |
| accuracy | 准确率 | AK -yər-ə-see / 艾克-yə-rə-see | 重音在 AK |
| precision | 精确率 | pri-SI-zhən | sion 这里是 zhən |
| recall | 召回率 | ri-KAWL / ri-靠 | 重音在后面 |
| F1 score | F1 分数 | F-one score | 字母 F 直接读 |
| IoU | 交并比 | I-O-U / 爱-欧-优 | 逐字母读 |
| Dice | Dice 系数 | DAIS / 戴斯 | i 读 ai |
| metric | 指标 | ME -trik / 麦-trik | e 近似"麦/梅" |
| error | 错误 | ER -ər / 艾-rər | 不读"error儿" |
| mean | 平均值 | MEEN / 米恩 | ea 读长 i |
| variance | 方差 | VAIR -ri-əns / 外瑞-əns | 重音在前 |
| standard deviation | 标准差 | STAN -dərd dee-vi-AY-shən | deviation 重音在 AY |
这一类最容易读错:
criterion = krai-TEER-ri-ən
precision = pri-SI-zhən
recall = ri-KAWL
Dice = 戴斯
variance = VAIR-ri-əns
5. 常见网络层类
| 英文 | 中文意思 | 正确中文近似读音 | 容易读错点 |
|---|---|---|---|
| linear | 线性层 | LI -ni-ər / 利-尼-ər | 不是"line-ar" |
| fully connected layer | 全连接层 | FUL -li kə-NEK -tid LAY-ər | connected 重音在 NEK |
| convolution | 卷积 | kon-və-LOO-shən | 重音在 LOO |
| convolutional layer | 卷积层 | kon-və-LOO-shə-nəl layer | tional 轻 |
| Conv | 卷积缩写 | KONV / 康夫 | v 要轻收 |
| pooling | 池化 | POO -ling / 普-ling | oo 长音 |
| max pooling | 最大池化 | MAX POO-ling | pooling 不是"破林" |
| average pooling | 平均池化 | AV -rij pooling / 艾-vər-ij pooling | average 不是"啊ver瑞吉" |
| normalization | 归一化 | nor-mə-lə-ZAY-shən | 重音在 ZAY |
| batch normalization | 批归一化 | batch nor-mə-lə-ZAY-shən | normalization 重音在后 |
| layer normalization | 层归一化 | layer nor-mə-lə-ZAY-shən | 同上 |
| dropout | 随机失活 | DROP -out / 抓普-奥特 | drop 不是"德若普"太重 |
| activation | 激活 | ak-tə-VAY-shən | 重音在 VAY |
| activation function | 激活函数 | ak-tə-VAY -shən FUNC-shən | function 读方克神 |
这一类最容易读错:
convolution = kon-və-LOO-shən
linear = LI-ni-ər
activation = ak-tə-VAY-shən
normalization = nor-mə-lə-ZAY-shən
dropout = DROP-out
6. 激活函数类
| 英文 | 中文意思 | 正确中文近似读音 | 容易读错点 |
|---|---|---|---|
| ReLU | 修正线性单元 | REE-loo / 瑞-路 | 不是"re lu" |
| Leaky ReLU | 带泄露 ReLU | LEE -ki REE-loo | leaky 读 lee-ki |
| Sigmoid | Sigmoid 函数 | SIG -moid / 西格-moid | 重音在 SIG |
| Tanh | 双曲正切 | TANH / 坦h | h 很轻 |
| Softmax | Softmax 函数 | SOFT-max / 索夫特-马克斯 | soft 的 t 可轻 |
| GELU | GELU 激活 | G-E-L-U | 一般逐字母读 |
| SiLU | SiLU 激活 | SEE-loo / 西-路 | 有人也逐字母读 S-I-L-U |
这一类最容易读错:
ReLU = REE-loo
Sigmoid = SIG-moid
Tanh = 坦h
GELU = G-E-L-U
SiLU = SEE-loo
7. CNN / 图像相关类
| 英文 | 中文意思 | 正确中文近似读音 | 容易读错点 |
|---|---|---|---|
| image | 图像 | IM -ij / 依-米只 | age 不是"诶只" |
| pixel | 像素 | PIK -səl / 皮克-səl | x 发 ks |
| channel | 通道 | CHAN -nəl / 掺-nəl | 不是"钱nel" |
| kernel | 卷积核 | KER -nəl / 科-nəl | nel 轻读 |
| filter | 滤波器 | FIL -tər / 菲尔-特儿 | ter 轻 |
| stride | 步长 | STRAID / 斯拽德 | i 读 ai |
| padding | 填充 | PAD -ding / 拍德-丁 | pad 有 d |
| dilation | 空洞卷积膨胀率 | dai-LAY-shən | 重音在 LAY |
| receptive field | 感受野 | ri-SEP-tiv field | receptive 重音在 SEP |
| downsampling | 下采样 | DOWN-sam-pling | down 重读 |
| upsampling | 上采样 | UP-sam-pling | up 重读 |
| segmentation | 分割 | seg-men-TAY-shən | 重音在 TAY |
| classification | 分类 | klas-sə-fə-KAY-shən | 重音在 KAY |
| detection | 检测 | di-TEK-shən | 重音在 TEK |
| localization | 定位 | lo-kə-lə-ZAY-shən | 重音在 ZAY |
| bounding box | 边界框 | BOWN-ding box | bound 读 bown |
| mask | 掩膜 | MASK / 马斯克 | a 不是"梅" |
这一类最容易读错:
segmentation = seg-men-TAY-shən
classification = klas-sə-fə-KAY-shən
dilation = dai-LAY-shən
receptive field = ri-SEP-tiv field
stride = STRAID
8. Transformer / Attention 类
| 英文 | 中文意思 | 正确中文近似读音 | 容易读错点 |
|---|---|---|---|
| transformer | Transformer | trans-FOR -mər / 穿斯-佛-mər | 重音在 FOR |
| attention | 注意力 | ə-TEN -shən / ə-滕-神 | 重音在 TEN |
| self-attention | 自注意力 | self ə-TEN-shən | attention 同上 |
| cross-attention | 交叉注意力 | cross ə-TEN-shən | cross 不读"克肉斯"太重 |
| query | 查询向量 Q | KWEER -i / 奎-ri | 不是"屈瑞" |
| key | 键向量 K | KEE / ki | 长 i |
| value | 值向量 V | VAL -yoo / 外-liu | value 不是"瓦流" |
| token | token | TOH -kən / 偷-kən | ken 轻 |
| patch | 图像块 | PATCH / 拍吃 | tch 像"吃" |
| position encoding | 位置编码 | pə-ZI -shən en-KOH-ding | position 重音在 ZI |
| multi-head attention | 多头注意力 | MUL -ti-head ə-TEN-shən | multi 重音前 |
| encoder | 编码器 | en-KOH -dər / 恩-扣-德儿 | 重音在 KO |
| decoder | 解码器 | di-KOH -dər / 迪-扣-德儿 | 重音在 KO |
| feed forward network | 前馈网络 | feed FOR-wərd network | forward 重音 FOR |
| MLP | 多层感知机 | M-L-P | 逐字母读 |
这一类最容易读错:
query = KWEER-i / 奎-ri
attention = ə-TEN-shən
transformer = trans-FOR-mər
encoder = en-KOH-dər
decoder = di-KOH-dər
value = VAL-yoo
9. RNN / 序列模型类
| 英文 | 中文意思 | 正确中文近似读音 | 容易读错点 |
|---|---|---|---|
| sequence | 序列 | SEE -kwəns / 西-kwəns | que 这里不是"奎" |
| recurrent | 循环的 | ri-KER-rənt | 重音在 KER |
| recurrent neural network | 循环神经网络 | ri-KER-rənt neural network | recurrent 最容易错 |
| RNN | 循环神经网络 | R-N-N | 逐字母读 |
| LSTM | 长短期记忆网络 | L-S-T-M | 逐字母读 |
| GRU | 门控循环单元 | G-R-U | 逐字母读 |
| hidden state | 隐状态 | HID-dən state | hidden 不读 high-den |
| cell state | 细胞状态 | cell state | cell 是 sel |
| gate | 门控 | GAYT / 给特 | a 读 ei |
这一类最容易读错:
recurrent = ri-KER-rənt
sequence = SEE-kwəns
hidden = HID-dən
gate = GAYT
10. 生成模型类
| 英文 | 中文意思 | 正确中文近似读音 | 容易读错点 |
|---|---|---|---|
| generative | 生成式的 | JEN-ər-ə-tiv | 重音在 JEN |
| generation | 生成 | jen-ə-RAY-shən | 重音在 RAY |
| diffusion | 扩散 | di-FYOO-zhən | 重音在 FYOO |
| denoising | 去噪 | di-NOY-zing | noise 是 noy-z |
| autoencoder | 自编码器 | aw-toh-en-KOH-dər | encoder 重音在 KO |
| variational autoencoder | 变分自编码器 | vair-ri-AY-shə-nəl autoencoder | variational 重音在 AY |
| GAN | 生成对抗网络 | G-A-N / gan | 两种都有人读 |
| discriminator | 判别器 | dis-KRIM-ə-nay-tər | 重音在 KRIM |
| generator | 生成器 | JEN-ə-ray-tər | 重音在 JEN |
| latent space | 潜空间 | LAY-tənt space | latent 不是"拉tent" |
| noise | 噪声 | NOYZ / 诺伊兹 | s 发 z |
| prompt | 提示词 | PROMPT / 普rom普特 | p/t 收尾 |
这一类最容易读错:
diffusion = di-FYOO-zhən
denoising = di-NOY-zing
variational = vair-ri-AY-shə-nəl
discriminator = dis-KRIM-ə-nay-tər
latent = LAY-tənt
11. 点云 / 3D 类
| 英文 | 中文意思 | 正确中文近似读音 | 容易读错点 |
|---|---|---|---|
| point cloud | 点云 | point cloud / 泼因特 克劳德 | cloud 不是"克路德" |
| point | 点 | POINT / 泼因特 | oi 双元音 |
| coordinate | 坐标 | ko-OR-də-nət | 名词重音在 OR |
| voxel | 体素 | VOK -səl / 沃克-səl | x 发 ks |
| mesh | 网格 | MESH / 迈sh | 不是"me许" |
| surface | 表面 | SER -fəs / 瑟-fəs | face 轻读 |
| normal | 法向量 | NOR -məl / 诺-məl | 不是"normal正常"的中式读法 |
| sampling | 采样 | SAM -pling / 三-pling | p 轻 |
| farthest point sampling | 最远点采样 | FAR-thest point sampling | farthest 不是 fastest |
| FPS | 最远点采样 | F-P-S | 逐字母读 |
| neighborhood | 邻域 | NAY-bər-hood | neigh 读 nay |
| k-nearest neighbors | K近邻 | K NEER -əst NAY-bərz | nearest / neighbors 都易错 |
| KNN | K近邻 | K-N-N | 逐字母读 |
| radius | 半径 | RAY-di-əs | 不是"拉dius" |
| grouping | 分组 | GROO-ping | oo 长音 |
| interpolation | 插值 | in-ter-pə-LAY-shən | 重音在 LAY |
这一类最容易读错:
voxel = VOK-səl
coordinate = ko-OR-də-nət
radius = RAY-di-əs
neighborhood = NAY-bər-hood
interpolation = in-ter-pə-LAY-shən
farthest ≠ fastest
12. PyTorch / 代码常见词类
| 英文 | 中文意思 | 正确中文近似读音 | 容易读错点 |
|---|---|---|---|
| PyTorch | PyTorch 框架 | PIE -torch / 派-torch | Py 读派 |
| tensor | 张量 | TEN -sər / 滕-瑟 | 不是 ten索 |
| module | 模块 | MAA -jool / 妈-久儿 | 美式读法 |
| parameter | 参数 | pə-RA-mə-tər | 不读帕拉米特 |
| requires grad | 需要梯度 | ri-KWAI-erz grad | requires 重音在 KWAI |
| gradient | 梯度 | GRAY-di-ənt | 不是 gra-di-ent |
| detach | 分离计算图 | di-TACH / di-塔吃 | 重音在后 |
| clone | 复制 | KLOHN / 克隆 | o 长音 |
| device | 设备 | di-VAIS / di-外斯 | 重音在后 |
| CUDA | CUDA | KOO -də / 酷-达 | cu 读酷 |
| CPU | 中央处理器 | C-P-U | 逐字母读 |
| GPU | 图形处理器 | G-P-U | 逐字母读 |
| checkpoint | 检查点 | CHEK-point | check 不是"切"很短 |
| state dict | 状态字典 | state dict | dict 不是 dictionary 全读 |
| load | 加载 | LOHD / 漏德 | o 长音 |
| save | 保存 | SAYV / sei夫 | a 读 ei |
| eval | 评估模式 | i-VAL / i-外尔 | 重音在 VAL |
| train mode | 训练模式 | train mode | mode 读 mohd |
这一类最容易读错:
requires grad = ri-KWAI-erz grad
detach = di-TACH
device = di-VAIS
eval = i-VAL
CUDA = KOO-də
13. 常见模型名字类
| 英文 | 中文意思 | 正确中文近似读音 | 容易读错点 |
|---|---|---|---|
| LeNet | 经典 CNN 模型 | lə-NET / 勒-Net | Le 不是 Lee |
| AlexNet | 经典 CNN 模型 | AL-eks-Net | Alex 重音前 |
| VGG | VGG 网络 | V-G-G | 逐字母读 |
| ResNet | 残差网络 | REZ-Net / 瑞兹-Net | s 发 z |
| DenseNet | 密集连接网络 | DENS-Net | dense 读 dens |
| MobileNet | 轻量网络 | MOH-bəl-Net | mobile 美式 MOH-bəl |
| EfficientNet | 高效网络 | i-FI-shənt-Net | efficient 重音 FI |
| U-Net | U 型网络 | U-Net | U 字母读 |
| UNet++ | U-Net++ | U-Net plus plus | plus plus |
| DeepLab | 分割模型 | DEEP-Lab | deep 长 i |
| YOLO | 目标检测模型 | YOH-loh / 悠-喽 | YO 读 yoh |
| Faster R-CNN | 检测模型 | Faster R-C-N-N | R-CNN 逐字母 |
| Mask R-CNN | 实例分割模型 | Mask R-C-N-N | 同上 |
| PointNet | 点云网络 | Point-Net | Point 不读 print |
| PointNet++ | 点云网络 | PointNet plus plus | plus plus |
| Transformer | Transformer 模型 | trans-FOR-mər | 重音 FOR |
| ViT | Vision Transformer | V-I-T | 逐字母读 |
| Swin Transformer | Swin Transformer | swin Transformer | swin 像"斯温" |
| BERT | 语言模型 | BERT / 伯特 | er 卷舌 |
| GPT | 生成式预训练模型 | G-P-T | 逐字母读 |
这一类最容易读错:
ResNet = REZ-Net,不是 Reis-Net
EfficientNet = i-FI-shənt-Net
MobileNet = MOH-bəl-Net
YOLO = YOH-loh
ViT = V-I-T
BERT = 伯特
14. 最容易读错高频词汇总
这一类是你最应该优先背的。
| 英文 | 中文意思 | 正确中文近似读音 | 不要读成 |
|---|---|---|---|
| parameter | 参数 | pə-RA -mə-tər / 坡-RA-么-特儿 | 帕拉米特 |
| optimize | 优化 | OP-tə-maiz / 奥普-特-麦兹 | 奥普题米兹 |
| optimizer | 优化器 | OP-tə-mai-zər | 奥普题米zer |
| optimization | 优化 | op-tə-mə-ZAY-shən | 奥普题米zation |
| gradient | 梯度 | GRAY-di-ənt | 格拉迪恩特 |
| criterion | 损失准则 | krai-TEER-ri-ən | 克瑞特瑞on |
| epoch | 训练轮数 | EH-pok / 艾-pok | 伊破吃 |
| iteration | 迭代 | i-tə-RAY-shən | 伊特瑞tion |
| convolution | 卷积 | kon-və-LOO-shən | 康沃鲁tion |
| activation | 激活 | ak-tə-VAY-shən | 阿克题va神 |
| attention | 注意力 | ə-TEN-shən | 阿ten神 |
| query | 查询向量 | KWEER-i / 奎-ri | 屈瑞 |
| value | 值向量 | VAL-yoo | 瓦流 |
| encoder | 编码器 | en-KOH-dər | en-code-er |
| decoder | 解码器 | di-KOH-dər | de-code-er |
| transformer | Transformer | trans-FOR-mər | transform-er 平读 |
| segmentation | 分割 | seg-men-TAY-shən | 赛格门ta tion |
| classification | 分类 | klas-sə-fə-KAY-shən | class-fi-cation |
| normalization | 归一化 | nor-mə-lə-ZAY-shən | normal-ization 平读 |
| regularization | 正则化 | reg-yə-lə-rə-ZAY-shən | regular-ization 平读 |
| augmentation | 数据增强 | aug-men-TAY-shən | aug-men-ta-tion 平读 |
| inference | 推理 | IN-fə-rəns | in-fer-ence 平读 |
| prediction | 预测 | pri-DIK-shən | pre-dic-tion 平读 |
| dataset | 数据集 | DAY-tə-set | 大塔set |
| PyTorch | PyTorch | PIE-torch | 皮torch |
| CUDA | CUDA | KOO-də | Q达 |
| device | 设备 | di-VAIS | device 平读 |
| detach | 分离计算图 | di-TACH | de-tach 平读 |
| voxel | 体素 | VOK-səl | vo-xel |
| coordinate | 坐标 | ko-OR-də-nət | coor-di-nate 平读 |
| radius | 半径 | RAY-di-əs | 拉dius |
| diffusion | 扩散 | di-FYOO-zhən | di-fu-sion |
| denoising | 去噪 | di-NOY-zing | de-noise-ing 平读 |
| discriminator | 判别器 | dis-KRIM-ə-nay-tər | dis-cri-mi-na-tor 平读 |
| latent | 潜在的 | LAY-tənt | 拉tent |
你可以先背这 10 个,最常用、最容易错:
parameter 坡-RA-么-特儿
optimize 奥普-特-麦兹
gradient 格瑞-迪-ənt
epoch 艾-pok
convolution kon-və-LOO-shən
activation ak-tə-VAY-shən
attention ə-TEN-shən
query 奎-ri
encoder en-KOH-dər
segmentation seg-men-TAY-shən