技术栈
#ai代理
果冻人工智能
15 天前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#神经网络
·
#ai
人类讨厌AI的缺点,其实自己也有,是时候反思了。
前言:人类讨厌AI,其实就是讨厌自己!如果你问一些人对人工智能的看法,你可能会听到诸如不道德、偏见、不准确甚至操纵这样的词语。
果冻人工智能
22 天前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#神经网络
·
#ai
您的公司需要小型语言模型
当专用模型超越通用模型时“越大越好”——这个原则在人工智能领域根深蒂固。每个月都有更大的模型诞生,参数越来越多。各家公司甚至为此建设价值100亿美元的AI数据中心。但这是唯一的方向吗?
果冻人工智能
25 天前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#chatgpt
·
#神经网络
·
#ai
主动式AI(代理式)与生成式AI的关键差异与影响
大型语言模型(LLMs)如GPT可以生成文本、回答问题并协助完成许多任务。然而,它们是被动的,这意味着它们仅根据已学到的模式对接收到的输入作出响应。LLMs无法自行决策;除此之外,它们无法规划或适应变化的环境。
果冻人工智能
1 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#chatgpt
·
#神经网络
·
#ai
创建用于预测序列的人工智能模型,用Keras Tuner探索模型的超参数。
上一篇:《创建用于预测序列的人工智能模型(五),调整模型的超参数》序言:在完成初步的模型研发后,接下来的重点是探索和优化超参数。通过合理调整超参数(如学习率、动量参数、神经元数量等),可以进一步提高模型的性能和准确性。这一过程需要结合工具(如 Keras Tuner)进行自动化测试和优化,从而高效找到最优配置方案。
果冻人工智能
1 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#chatgpt
·
#神经网络
·
#ai
创建用于预测序列的人工智能模型,调整模型的超参数。
上一篇:《创建用于预测序列的人工智能模型(四),评估模型的能力》序言:人工智能模型的研发过程实际上是一个多阶段的迭代过程,包括数据准备、模型架构设计、训练和验证,而超参数的调整和优化则始终贯穿其中,是提升模型性能的重要环节。
果冻人工智能
1 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#chatgpt
·
#神经网络
·
#ai
创建用于预测序列的人工智能模型,评估模型的能力。
上一篇:《创建用于预测序列的人工智能模型(三),训练模型》序言:对于当前的动则几千亿的大语言模型来说,训练的过程可以持续几天几周基于几个月,这取决于拥有的硬件数量以及总要训练的参数。模型训练完成后就进入模型的评估验证过程,一般会不断的重复直到优化完成。
果冻人工智能
1 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#chatgpt
·
#神经网络
·
#ai
为什么 Llama 3.3 70B 比 GPT-4o 和 Claude 3.5 Sonnet 更优秀
过去七天的 AI 新闻如狂风暴雨般涌来,AI 世界发生了许多重大变化。在这篇文章中,我们将深入探讨来自 Llama 3.3 70B、GPT-4o 和 Claude 3.5 Sonnet 等主要参与者的最新 AI 动态。
果冻人工智能
1 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#chatgpt
·
#神经网络
·
#ai
创建用于预测序列的人工智能模型,训练模型。
序言:我们在从事人工智能模型的研发时,当数据集,模型架构都准确好了,其实训练从代码角度来看,很简单粗暴。
果冻人工智能
1 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#神经网络
·
#ai
创建用于预测序列的人工智能模型,设计数据集。
上一篇:《预测大师的秘籍:揭开时间序列的真相》序言:一章介绍了序列数据以及时间序列的特性,包括季节性、趋势、自相关性和噪声。你创建了一个用于预测的合成序列,并探索了基本的统计预测方法。在接下来的章节中,你将系统地学习如何利用人工智能模型(机器学习模型)进行时间序列预测。这包括:数据集的创建、模型的构建、模型的训练与测试、架构的验证,以及通过调整超参数优化模型性能。这一篇则主要与大家共同回顾如何创建数据集。
果冻人工智能
1 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#chatgpt
·
#神经网络
·
#ai
预测大师的秘籍:揭开时间序列的真相
上一篇:《用人工智能模型预测股市和加密货币的K线图》序言:预测时间序列,乍听之下似乎离我们普通人很遥远,甚至有些晦涩难懂。其实该技术早已渗透进了我们的日常生活。天气预报每天提醒你是否带伞、股市的波动影响你的投资决策、电力公司的负荷管理让你享受稳定的电网服务……这些无不依赖时间序列分析的强大力量。本篇将带你从最简单的预测方法出发,逐步揭开时间序列的面纱,让你看到这门技术是如何在普通人和机器学习这门高深技术之间架起一座桥梁
果冻人工智能
1 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#神经网络
·
#ai
人工智能规模法则的起源、分析、内幕以及对齐方法
上一篇:《人工智能大语言模型起源篇,低秩微调(LoRA)》(14)Rae 和同事(包括78位合著者!)于2022年发表的《Scaling Language Models: Methods, Analysis & Insights from Training Gopher》,https://arxiv.org/abs/2112.11446
果冻人工智能
1 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#chatgpt
·
#神经网络
·
#ai
规模法则(Scaling Law)与参数效率的提高,
上一篇:《人工智能大语言模型起源篇(三),模型规模与参数效率》规模法则与效率提高如果你想了解更多关于提高变换器效率的各种技术,我推荐阅读2020年的《Efficient Transformers: A Survey》https://arxiv.org/abs/2009.06732论文,接着是2023年的《A Survey on Efficient Training of Transformers》https://arxiv.org/abs/2302.01107论文。
果冻人工智能
1 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#chatgpt
·
#神经网络
·
#ai
人工智能大语言模型起源篇(二),从通用语言微调到驾驭LLM
上一篇:《人工智能大语言模型起源篇(一),从哪里开始》(5)Howard 和 Ruder 于2018年发表的《Universal Language Model Fine-tuning for Text Classification》,https://arxiv.org/abs/1801.06146
果冻人工智能
1 个月前
#人工智能
·
#ai代理
·
#豆包
·
#ai应用
·
#ai员工
·
#cnn
·
#chatgpt
·
#神经网络
·
#ai
人工智能大语言模型起源篇(一),从哪里开始
序言:许多人最初接触人工智能都是在ChatGPT火热之际,并且大多停留在应用层面。对于希望了解其技术根源的人来说,往往难以找到方向。因此,我们编写了《人工智能大语言模型起源篇》,旨在帮助读者找到正确的学习路径,了解大型语言模型的大致起源。本文将分为三个部分,介绍当前主流的大型语言模型架构Transformer(变换器)模型的起源及其发展历程。Transformer并非横空出世,而是人工智能领域研究者们在长期探索和实验中逐步发展起来的。
果冻人工智能
1 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#chatgpt
·
#神经网络
·
#ai
用人工智能模型预测股市和加密货币的K线图
前一篇:《从爱尔兰歌曲到莎士比亚:LSTM文本生成模型的优化之旅》前言:加密货币市场昨日大幅下跌,一天内市值蒸发逾70亿 人民币。有人可能会问,如果使用人工智能模型预测市场的涨跌,是否能避免损失?作者在此指出,加密货币市场和股市具有高度的主观性,受人为因素、情绪波动和外界干预的显著影响,而非单纯依赖客观规律。因此,即便人工智能能够基于历史数据和市场规律做出客观预测,也无法避免因市场主观性而导致的不确定性或偏差。因此,在主观决策时不要让人工智能帮你来做。
果冻人工智能
1 个月前
#人工智能
·
#ai代理
·
#豆包
·
#ai应用
·
#ai员工
·
#cnn
·
#chatgpt
·
#神经网络
·
#ai
搭建人工智能多模态大语言模型的通用方法
上一篇:《理解多模态大语言模型,主流技术与最新模型简介》序言:动手搭建建多模态LLM的两大通用主流方法是:统一嵌入-解码器架构和跨模态注意力架构,它们都是通过利用图像嵌入与投影、跨注意力机制等技术来实现的。
果冻人工智能
2 个月前
#人工智能
·
#ai代理
·
#豆包
·
#ai应用
·
#ai员工
·
#cnn
·
#chatgpt
·
#神经网络
·
#ai
再用RNN神经网络架构设计生成式语言模型
上一篇:《用谷歌经典ML方法方法来设计生成式人工智能语言模型》序言:市场上所谓的开源大语言模型并不完全开源,通常只提供权重和少量工具,而架构、训练数据集、训练方法及代码等关键内容并未公开。因此,要真正掌握人工智能模型,仍需从基础出发。本篇文章将通过传统方法重新构建一个语言模型,以帮助大家理解语言模型的本质:它并不神秘,主要区别在于架构设计。目前主流架构是谷歌在论文《Attention Is All You Need》中提出的 Transformer,而本文选择采用传统的 RNN(LSTM)方法构建模型,其
果冻人工智能
2 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#神经网络
·
#ai
理解多模态大语言模型,主流技术与最新模型简介
序言:近几个月非常精彩。AI研究领域又有了许多新进展,其中包括两个诺贝尔奖授予了AI领域,以及几篇有趣的研究论文发表。
果冻人工智能
2 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#cnn
·
#神经网络
·
#ai
用谷歌经典ML方法方法来设计生成式人工智能语言模型
上一篇:《人工智能模型学习到的知识是怎样的一种存在?》序言:在接下来的几篇中,我们将学习如何利用 TensorFlow 来生成文本。需要注意的是,我们这里并不使用当前最热门的 Transformer 模型,而是探讨传统的机器学习方法。这么做的目的,是让你对当前主流的生成式人工智能模型有一个对比性的理解。通过了解这些传统模型和现代 Transformer 模型的差异,你会发现,现代生成式模型的成功,背后的技术,其实就是“规模法则”(Scaling Law)的推动。你可能会好奇,为什么以前的模型无法以同样的方
果冻人工智能
2 个月前
#人工智能
·
#ai代理
·
#ai应用
·
#ai员工
·
#神经网络
·
#ai
循环神经网络设计同样可以使用预训练词“嵌入”
序言:重新训练人工智能大型模型是一项复杂且高成本的任务,尤其对于当前的LLM(大型语言模型)来说,全球99.99%的企业难以承担。这是因为模型训练需要巨大的资源投入、复杂的技术流程以及大量的人力支持。因此,无论在科学研究还是实际应用中,人们通常依赖开源的预训练模型及其已经学习到的各种特征信息,就像使用开源的Linux一样。本节将讲解如何利用这些预训练模型中的“嵌入”信息来解决实际问题。