AI 是什么?
Artificial Intelligence,即人工智能,1956年于Dartmouth学会上提出,一种旨在以类似人类反应的方式对刺激做出反应并从中学习的技术,其理解和判断水平通常只能在人类的专业技能中找到。AI因具备自主学习和认知能力,可进行自我调整和改进,从而应对更加复杂的任务。
AGI
Artificial General Intelligence (AGI),通用人工智能,是具备与人类同等智能、或超越人类的人工智能,能表现正常人类所具有的所有智能行为。又名强人工智能。
PGC
专业生成内容,由专业的创作者、机构或团队制作的内容;CCTV、央视网、人民日报是 PGC 平台;
UGC
用户生成内容,指的是由普通用户创建和分享的内容;抖音、bilibii、小红书都是这样的内容平台;
AIGC
全称"AI generated content",意为人工智能生成内容,是一种内容生产形式。例如AI文字续写,文字转像的AI图、AI主持人等,都属于AIGC的应用。
ANI
Artificial Narrow Intelligence(ANI),狭义的人工智能,即专注一件事的 AI,如下围棋的AlphaGo。又名弱人工智能。
ASI
Artificial Super Intelligence(ASI),尽管存在争议,但ASI通常被定义为超越人类思维能力的人工智能。
GPTS
GPT插件
GPT store
GPTs 汇集的地方叫做 GPT store;
LLM
Large Language Model,中文意思是 "大型语言模型"。这种大模型通常是指基于深度学习技术的神经网络模型,用于自然语言处理(NLP)任务。
Backpropagation
"误差反向传播"的简称,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。该方法计算对网络中所有权重计算损失函数的梯度。这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。
Agents
Agent(智能体)=一个设置了一些目标或任务,可以迭代运行的大型语言模型。这与大型语言模型(LLM)在像ChatGPT这样的工具中"通常"的使用方式不同。在ChatGPT中,你提出一个问题并获得一个答案作为回应。而Agent拥有复杂的工作流程,模型本质上可以自我对话,而无需人类驱动每一部分的交互。
CNN
Convolutional Neural Network(CNN),一种深度学习模型,通过应用一系列过滤器来处理具有网格状拓扑(例如图像)的数据。此类模型通常用于图像识别任务,
RNN
循环神经网络,一种用于处理序列数据的神经网络, 用于预测文字,但越靠近填空位的词权重越大
Transformers
一个由谷歌提出来的机器学习框架,引入了注意力概念,与RNN不同的是,在预测文字时候,会根据上下文(关键词)进行预测
NLP:
Natural Language Processing 自然语言处理,使计算机能够理解、解释和生成人类语言的技术。
DALL-E是什么
OpenAI在2021年发布的一个模型,它能够根据文本描述生成相应的图像
CHATGPT
ChatGPT是OpenAI开发的人工智能聊天机器人程序,于2022年11月推出。该程序使用基于GPT-3.5、GPT-4架构的大型语言模型并以强化学习训练,可以理解和产生人类语言。它像一个机器人聊天伙伴,你可以和它交谈来获取信息或解答问题。
ChatBot
一种计算机程序,旨在通过文本或语音交互模拟人类对话。聊天机器人通常利用自然语言处理技术来理解用户输入并提供相关响应。
COT
思维链提示(CoT,Chain-of-thought)通过提示 LLM 生成-系列中间步骤来提高 LLM 的推理能力,这些中间步骤会导致多步骤问题的最终答案。该技术由谷歌研究人员于 2022 年首次提出。
Deep Learing(DL)
深度学习是机器学习(ML)的分支,是一种以人工神经网络为架构,对资料进行表征学习的算法。深度学习中的形容词"深度"是指在网络中使用多层。
Embedding
在计算机科学中,"embedding"是一种将对象(如词语、用户或商品)映射到数值向量的技术。这些向量捕捉了对象之间的相似性和关系,就像你在"猜词"游戏中使用相关词描述一个词一样。
Embedding 的核心属性是把高维的,可能是非结构化的数据,转化为低维的,结构化的向量。这样做的目的是让机器可以理解和处理这些数据,从而进行有效的学习和预测。
以推荐系统为例,如果我们想要推荐相似的商品给用户,我们可以用 embedding 技术把每个商品转化为一个向量。在这个向量空间中,相似的商品会有相似的向量。当一个用户喜欢某个商品时,我们就可以找到向量空间中最接近这个商品的其他商品,推荐给用户。这就是 embedding 在现实生活中的一个应用,
Emergence
涌现(英语:emergence)或称创发、突现、呈展、演生,是一种现象,为许多小实体相互作用后产生了大实体,而这个大实体展现了组成它的小实体所不具有的特性。涌现在整合层次和复杂系统理论中起着核心作用.例如,生物学中的生命现象是化学的一个涌现。
Few-Shot
小样本学习也叫做少样本学习(low-shot learning),其目标是从少量样本中学习到解决问题的方法,与小样本学习相关的概念还有零样本学习(zero-shot learning)等,零样本学习是指在没有训练数据的情况下,利用类别的属性等信息训练模型,从而识别新类别。
Fine-Tuning
微调是迁移学习的一种常用技术。目标模型复制了源模型上除掉了输出层外的所有模型设计及其参数,并基于目标数据集微调这些参数。微调在自然语言处理(NLP)中很常见,尤其是在语言建模领域。像OpenAI的GPT这样的大型语言模型可以在下游 NLP 任务上进行微调,以产生比预训练模型通常可以达到的更好的结果,
简单的说就是,在通用大模型基础上,再针对具体数据集进行训练
- 全量微调FFT(Full Fine Tuning):对全量的模型参数,进行全量的训练
- PEFT(Parameter-Efficient Fine Tuning):只对部分模型参数进行训练
RAG(Retrieval-Augmented Generation)
基于检索增强的生成
Forward Propagation
在神经网络中,前向传播是输入数据被馈送到网络并通过每一层(从输入层到隐藏层,最后到输出层)以产生输出的过程。网络对输入应用权重和偏差,并使用激活函数生成最终输出。
Generative AI / Gen AI
AI 的一个分支,专注于创建模型,这些模型可以根据现有数据的模式和示例生成新的原创内容,例如图像、音乐或文本。
Instruction Tuning
指令调优,机器学习中的一种技术,其中模型根据数据集中给出的特定指令进行微调。
多模态
指多种输入输出渠道,具体有文字,语音,图片,视频等
Temperature
改变温度参数会改变模型的输出(仅限于API)。温度参数可以设置为0到 2。较高的值(例如 0.7)将使输出(概率低)更随机,并产生更多发散的响应,而较小的值(例如 0.2)将使输出(概率高)更加集中和具体。
Top-p
Top-p(前p%筛选):Top-p参数用于控制生成文本时,只考虑累积概率高于给定阈值的词语。0.1表示只考虑概率累积高于10%的词语。这有助于生成更加有连贯性的文本,因为只选择了高概率的选项。如果您希望生成文本更加开放,可以适度增加Top-p值,例如,将其设置为0.5,以考虑更多的选择。
Top-k
Top-k参数用于控制生成文本时只考虑累积概率最高的k个词语。在这里,设置为5,表示只考虑概率最高的5个词语。这有助于生成文本时限制选择范围,以避免选择过多的不太可能的词语。如果您希望生成的文本更加多样,可以增加Top-k的值,例如,将其设置为10或更高。