#cnn

果冻人工智能25 天前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#神经网络·#ai
人类讨厌AI的缺点,其实自己也有,是时候反思了。前言:人类讨厌AI,其实就是讨厌自己!如果你问一些人对人工智能的看法,你可能会听到诸如不道德、偏见、不准确甚至操纵这样的词语。
果冻人工智能1 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#神经网络·#ai
您的公司需要小型语言模型当专用模型超越通用模型时“越大越好”——这个原则在人工智能领域根深蒂固。每个月都有更大的模型诞生,参数越来越多。各家公司甚至为此建设价值100亿美元的AI数据中心。但这是唯一的方向吗?
果冻人工智能1 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#chatgpt·#神经网络·#ai
主动式AI(代理式)与生成式AI的关键差异与影响大型语言模型(LLMs)如GPT可以生成文本、回答问题并协助完成许多任务。然而,它们是被动的,这意味着它们仅根据已学到的模式对接收到的输入作出响应。LLMs无法自行决策;除此之外,它们无法规划或适应变化的环境。
果冻人工智能1 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#chatgpt·#神经网络·#ai
创建用于预测序列的人工智能模型,用Keras Tuner探索模型的超参数。上一篇:《创建用于预测序列的人工智能模型(五),调整模型的超参数》序言:在完成初步的模型研发后,接下来的重点是探索和优化超参数。通过合理调整超参数(如学习率、动量参数、神经元数量等),可以进一步提高模型的性能和准确性。这一过程需要结合工具(如 Keras Tuner)进行自动化测试和优化,从而高效找到最优配置方案。
果冻人工智能1 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#chatgpt·#神经网络·#ai
创建用于预测序列的人工智能模型,调整模型的超参数。上一篇:《创建用于预测序列的人工智能模型(四),评估模型的能力》序言:人工智能模型的研发过程实际上是一个多阶段的迭代过程,包括数据准备、模型架构设计、训练和验证,而超参数的调整和优化则始终贯穿其中,是提升模型性能的重要环节。
果冻人工智能1 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#chatgpt·#神经网络·#ai
创建用于预测序列的人工智能模型,评估模型的能力。上一篇:《创建用于预测序列的人工智能模型(三),训练模型》序言:对于当前的动则几千亿的大语言模型来说,训练的过程可以持续几天几周基于几个月,这取决于拥有的硬件数量以及总要训练的参数。模型训练完成后就进入模型的评估验证过程,一般会不断的重复直到优化完成。
果冻人工智能1 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#chatgpt·#神经网络·#ai
为什么 Llama 3.3 70B 比 GPT-4o 和 Claude 3.5 Sonnet 更优秀过去七天的 AI 新闻如狂风暴雨般涌来,AI 世界发生了许多重大变化。在这篇文章中,我们将深入探讨来自 Llama 3.3 70B、GPT-4o 和 Claude 3.5 Sonnet 等主要参与者的最新 AI 动态。
果冻人工智能1 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#chatgpt·#神经网络·#ai
创建用于预测序列的人工智能模型,训练模型。序言:我们在从事人工智能模型的研发时,当数据集,模型架构都准确好了,其实训练从代码角度来看,很简单粗暴。
果冻人工智能1 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#chatgpt·#神经网络·#ai
预测大师的秘籍:揭开时间序列的真相上一篇:《用人工智能模型预测股市和加密货币的K线图》序言:预测时间序列,乍听之下似乎离我们普通人很遥远,甚至有些晦涩难懂。其实该技术早已渗透进了我们的日常生活。天气预报每天提醒你是否带伞、股市的波动影响你的投资决策、电力公司的负荷管理让你享受稳定的电网服务……这些无不依赖时间序列分析的强大力量。本篇将带你从最简单的预测方法出发,逐步揭开时间序列的面纱,让你看到这门技术是如何在普通人和机器学习这门高深技术之间架起一座桥梁
果冻人工智能2 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#神经网络·#ai
人工智能规模法则的起源、分析、内幕以及对齐方法上一篇:《人工智能大语言模型起源篇,低秩微调(LoRA)》(14)Rae 和同事(包括78位合著者!)于2022年发表的《Scaling Language Models: Methods, Analysis & Insights from Training Gopher》,https://arxiv.org/abs/2112.11446
果冻人工智能2 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#chatgpt·#神经网络·#ai
规模法则(Scaling Law)与参数效率的提高,上一篇:《人工智能大语言模型起源篇(三),模型规模与参数效率》规模法则与效率提高如果你想了解更多关于提高变换器效率的各种技术,我推荐阅读2020年的《Efficient Transformers: A Survey》https://arxiv.org/abs/2009.06732论文,接着是2023年的《A Survey on Efficient Training of Transformers》https://arxiv.org/abs/2302.01107论文。
果冻人工智能2 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#chatgpt·#神经网络·#ai
人工智能大语言模型起源篇(二),从通用语言微调到驾驭LLM上一篇:《人工智能大语言模型起源篇(一),从哪里开始》(5)Howard 和 Ruder 于2018年发表的《Universal Language Model Fine-tuning for Text Classification》,https://arxiv.org/abs/1801.06146
果冻人工智能2 个月前
#人工智能·#ai代理·#豆包·#ai应用·#ai员工·#cnn·#chatgpt·#神经网络·#ai
人工智能大语言模型起源篇(一),从哪里开始序言:许多人最初接触人工智能都是在ChatGPT火热之际,并且大多停留在应用层面。对于希望了解其技术根源的人来说,往往难以找到方向。因此,我们编写了《人工智能大语言模型起源篇》,旨在帮助读者找到正确的学习路径,了解大型语言模型的大致起源。本文将分为三个部分,介绍当前主流的大型语言模型架构Transformer(变换器)模型的起源及其发展历程。Transformer并非横空出世,而是人工智能领域研究者们在长期探索和实验中逐步发展起来的。
果冻人工智能2 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#chatgpt·#神经网络·#ai
用人工智能模型预测股市和加密货币的K线图前一篇:《从爱尔兰歌曲到莎士比亚:LSTM文本生成模型的优化之旅》前言:加密货币市场昨日大幅下跌,一天内市值蒸发逾70亿 人民币。有人可能会问,如果使用人工智能模型预测市场的涨跌,是否能避免损失?作者在此指出,加密货币市场和股市具有高度的主观性,受人为因素、情绪波动和外界干预的显著影响,而非单纯依赖客观规律。因此,即便人工智能能够基于历史数据和市场规律做出客观预测,也无法避免因市场主观性而导致的不确定性或偏差。因此,在主观决策时不要让人工智能帮你来做。
果冻人工智能2 个月前
#人工智能·#ai代理·#豆包·#ai应用·#ai员工·#cnn·#chatgpt·#神经网络·#ai
搭建人工智能多模态大语言模型的通用方法上一篇:《理解多模态大语言模型,主流技术与最新模型简介》序言:动手搭建建多模态LLM的两大通用主流方法是:统一嵌入-解码器架构和跨模态注意力架构,它们都是通过利用图像嵌入与投影、跨注意力机制等技术来实现的。
果冻人工智能2 个月前
#人工智能·#ai代理·#豆包·#ai应用·#ai员工·#cnn·#chatgpt·#神经网络·#ai
再用RNN神经网络架构设计生成式语言模型上一篇:《用谷歌经典ML方法方法来设计生成式人工智能语言模型》序言:市场上所谓的开源大语言模型并不完全开源,通常只提供权重和少量工具,而架构、训练数据集、训练方法及代码等关键内容并未公开。因此,要真正掌握人工智能模型,仍需从基础出发。本篇文章将通过传统方法重新构建一个语言模型,以帮助大家理解语言模型的本质:它并不神秘,主要区别在于架构设计。目前主流架构是谷歌在论文《Attention Is All You Need》中提出的 Transformer,而本文选择采用传统的 RNN(LSTM)方法构建模型,其
果冻人工智能2 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#神经网络·#ai
用谷歌经典ML方法方法来设计生成式人工智能语言模型上一篇:《人工智能模型学习到的知识是怎样的一种存在?》序言:在接下来的几篇中,我们将学习如何利用 TensorFlow 来生成文本。需要注意的是,我们这里并不使用当前最热门的 Transformer 模型,而是探讨传统的机器学习方法。这么做的目的,是让你对当前主流的生成式人工智能模型有一个对比性的理解。通过了解这些传统模型和现代 Transformer 模型的差异,你会发现,现代生成式模型的成功,背后的技术,其实就是“规模法则”(Scaling Law)的推动。你可能会好奇,为什么以前的模型无法以同样的方
果冻人工智能2 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#神经网络·#ai
新型大语言模型的预训练与后训练范式,谷歌的Gemma 2语言模型前言:大型语言模型(LLMs)的发展历程可以说是非常长,从早期的GPT模型一路走到了今天这些复杂的、公开权重的大型语言模型。最初,LLM的训练过程只关注预训练,但后来逐步扩展到了包括预训练和后训练在内的完整流程。后训练通常涵盖监督指导微调和对齐过程,而这些在ChatGPT的推广下变得广为人知。
果冻人工智能2 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#神经网络·#ai
设计和训练人工智能模型的意义是什么?前一篇:《人工智能模型训练技术,正则化!》序言:人工智能模型的真正价值在于其实际应用,而不仅仅停留在理论阶段。本节将通过一个简单而常见的应用场景,展示如何将前面几节所设计和训练的模型应用于实际问题。我们将使用训练好的模型对句子进行分类,具体来说,识别社交平台上用户评论的类别。通过这样的技术,社交平台可以实时分析用户的情绪,迅速采取适当的响应措施,比如缓解冲突、提升用户体验,甚至优化平台的推荐算法。
果冻人工智能3 个月前
#人工智能·#ai代理·#ai应用·#ai员工·#cnn·#神经网络·#ai
人工智能同样也会读死书----“过拟合”上一篇:《“嵌入”在大语言模型中是解决把句子转换成向量表示的技术》序言:我们常常会说某某人只会“读死书”,题目稍微变一点就不会做了。这其实是我们人类学习中很常见的现象。可是你知道吗?人工智能其实更容易“读死书”。不过在人工智能领域,我们有个听起来高大上的说法,叫“过拟合”。说白了,“过拟合”就是人工智能的“读死书”现象。在这个小节我们就来聊聊怎么让人工智能少“读死书”。注意,我说的是“少”,因为这个问题没办法完全消除,只能尽量降低。