人工智能领域常见简称的含义

一、概述

有时,当我们在阅读人工智能、大模型方面的文章、推送时,一些作者可能会使用简称/缩写去表示某一种技术(职业习惯)。如果正在阅读的相关内容恰好是我们不熟悉的,那么这些缩写可能就成为我们理解文章的绊脚石了。因此,这篇博文主要列举人工智能中常见的一些简称及其含义。

二、常见简称

为了便于阅读,笔者对下述概念进行了粗略的类别划分(意思是并不严谨,勿喷)。

1、人工智能分支简称

(1)ML

Machine Learning,机器学习。机器学习是人工智能的一个分支,它使计算机系统能够利用数据和算法自动改进性能。通过从数据中学习模式,机器学习模型可以预测结果、识别模式、做出决策或执行任务。

(2)DL

Deep Learning,深度学习。深度学习是机器学习的一个重要分支,它通过构建多层次的神经网络来模拟人脑处理信息的方式。深度学习模型能够自动从数据中学习复杂的特征表示,这些特征表示可以用于图像识别、语音识别、自然语言处理等多种任务。

(3)NLP

Natural Language Processing,自然语言处理。自然语言处理是人工智能和语言学领域的一个分支,它旨在使计算机能够理解、解释和生成人类语言的内容,文本分类、文本聚类、主题挖掘、情感分析等都属于NLP的范畴。

(4)NLG

Natural Language Generation,自然语言生成。自然语言生成技术是自然语言处理的分支之一,是使用计算机程序生成人类可读的自然语言文本的过程,其目标是将数据、信息或知识转换成易于理解的文本形式。目前大火的大语言模型本质上也属于NLG技术范畴。

(5)NLU

Natural Language Understanding,自然语言理解。自然语言理解技术旨在使计算机能够理解人类语言的含义和语境,通过让机器能够解析、解释和推断自然语言数据的含义来执行各种语言相关的任务,如问答系统、情感分析、机器翻译等。自然语言理解也是自然语言处理的分支之一。

(6)CV

Computer Vision,计算机视觉。计算机视觉是人工智能领域的一个重要分支,它旨在使计算机能够从图像或多维数据中提取信息、识别对象、场景和活动,其目标是模拟人类视觉系统的能力。

2、人工智能技术/概念简称

(1)ANN

Artificial Neural Network,人工神经网络。人工神经网络是一种模仿人类大脑神经网络行为的计算模型,它由大量的神经元组成,这些节点通过连接权重相互关联。ANN并不是什么新的深度学习模型,它是所有基于神经网络的深度学习模型的统称。

(2)KG

Knowledge Graph,知识图谱。知识图谱是一种结构化的语义知识库,它旨在存储和表达实体之间的复杂关系。知识图谱通常由大量的实体、属性和关系三元组组成。

(3)AGI

Artificial General Intelligence,通用人工智能。通用人工智能是指能够像人类一样在多种不同的环境和任务中灵活地学习、理解和应用知识的智能程度(目前更多是概念阶段)。与目前流行的应用特定人工智能(Applied Specific Intelligence,ASI)或弱人工智能相比,通用人工智能被定义为具备更广泛的认知能力。

(4)AIGC

Artificial Intelligence Generate Content,人工智能生成内容。AIGC是一种利用人工智能技术自动生成指定内容的方法(例如大语言模型生成的内容就属于AIGC)。AIGC的核心思想是利用人工智能算法/模型生成特定内容,例如文章、图像、音频甚至视频。

(5)RAG

Retrieval Augmented Generation,检索增强生成。‌顾名思义,检索增强生成是一种结合了检索技术和大模型的人工智能技术,它通过从大模型外部的知识库中检索相关信息来辅助大模型的文本生成。

(6)CoT

Chain of Thought,思维链。CoT技术旨在通过特定的提示(prompt)来提升大型语言模型在复杂推理任务中的表现的方法。‌ CoT技术的灵感来源于人类解决复杂问题的思维推导过程,通过让语言模型生成中间的推理步骤,逐步推导出最终答案,从而提升生成结果的可靠性。

(7)IoT

Internet of Things,物联网。物联网是指通过信息传感设备,按约定的协议,将任何物体与网络相连接。

(8)TTS

Text to Speech,文本转语音。

3、预训练模型/大语言模型技术简称

(1)FFT

Full Fine-tuning,全参数微调。‌微调是指在预训练模型的基础上,通过在垂直领域或任务上进一步训练该模型,从而优化模型在特定任务上面的性能表现的过程。全参数微调指的是让预训练模型的所有参数都参与微调训练过程中的梯度更新。

(2)SFT

Supervised Fine-tuning,有监督微调。有监督微调指的是预训练模型微调任务中所使用的数据是带标签的。

(3)RLHF

Reinforcement Learning from Human Feedback,人类反馈强化学习。‌ RLHF是一种大模型强化学习方法,旨在通过人类反馈来指导‌大模型的行为。‌ 在RLHF中,人类根据指定的指标对大模型的行为进行评估,大模型结合人类的这些反馈逐步改进自己的行为策略。

(4)LoRA

Low-Rank Adaptation,低秩适配。LORA是一种高效微调大语言模型的技术,通过引入低秩矩阵分解来优化模型参数,从而减少计算量和参数量‌。

(5)PEFT

Parameter Efficient Fine-tuning,参数高效微调。‌PEFT在保持预训练模型大部分参数不变的情况下,通过添加少量可训练的参数(如适配器或小型网络模块)来使得模型适应新任务,而不是重新训练整个模型。

三、总结

掌握常见的概念可以让我们在阅读、对话的过程中应对自如,但是我们还是需要结合语境去判断对方的简称说的是哪个东西,毕竟英文首字母相同的词组比比皆是,例如FFT也可以是快速傅里叶变换。

相关推荐
XUE_DING_E3 分钟前
Educational Codeforces Round 171
算法
Patience to do13 分钟前
Android Studio项目(算法计算器)
android·算法·android studio
这题怎么做?!?29 分钟前
模板方法模式
开发语言·c++·算法
XinZong1 小时前
【AI开源项目】OneAPI -核心概念、特性、优缺点以及如何在本地和服务器上进行部署!
人工智能·开源
迷路爸爸1801 小时前
深入理解Allan方差:用体重数据分析误差的时间尺度与稳定性
机器学习·数据分析·概率论
机器之心1 小时前
Runway CEO:AI公司的时代已经结束了
人工智能·后端
T0uken2 小时前
【机器学习】过拟合与欠拟合
人工智能·机器学习
即兴小索奇2 小时前
GPT-4V 是什么?
人工智能
边疆.2 小时前
C++类和对象 (中)
c语言·开发语言·c++·算法