深度学习

Learn Beyond Limits3 分钟前
人工智能·rnn·深度学习·神经网络·语言模型·自然语言处理·nlp
双向循环神经网络|Bi-RNN(Bidirectional Recurrent Neural Networks)-----------------------------------------------------------------------------------------------
人工智能培训27 分钟前
人工智能·深度学习·机器学习·prompt·agent·智能体
大模型Prompt实战:精准生成专业技术文档
极光代码工作室28 分钟前
python·深度学习·自然语言处理·情感分析·文本挖掘
基于NLP的电商评论情感分析系统随着电子商务平台的迅猛发展,用户评论已成为消费者决策的重要参考依据,也是商家优化产品与服务的关键数据来源。然而,海量非结构化评论文本蕴含的情感倾向具有高度隐含性与主观性,人工标注成本高、效率低,亟需自动化、智能化的情感分析技术支撑。本文设计并实现了一套端到端的电商评论情感分析系统,融合传统机器学习与深度学习方法,构建了面向中文电商场景的多粒度情感识别框架。系统采用BERT-BiLSTM-CRF联合模型进行细粒度方面级情感三元组抽取(Aspect-Term, Opinion-Term, Sentiment-
算AI1 小时前
人工智能·深度学习·算法·机器学习·生成对抗网络·ai
重绘多孔世界的蓝图:GAN助力多孔材料的数字重构在地质、材料、电化学等领域,针对岩层、骨骼、电池等多孔材料的数字重构具有重要作用,重构质量的优劣会直接影响后续针对多孔材料的介质结构、流体流动行为等方面的分析。
龙文浩_2 小时前
人工智能·深度学习·神经网络·算法·回归·线性回归
AI深度学习演进之路:从机器学习到大模型的范式变革AI深度学习演进之路:从机器学习到大模型的范式变革
风巽·剑染春水2 小时前
人工智能·深度学习·生成模型·diffusion·扩散模型
【扩散模型原理】(三)Score-Based Perspective: From EBMs to NCSN《扩散模型原理:从起源到发展》:第三章 基于分数的视角:从 EBMs 到 NCSN专著:The Principles of Diffusion Models
春末的南方城市2 小时前
人工智能·深度学习·计算机视觉
亚马逊提出FlowFixer,商品图生成告别模糊Logo和错字,电商广告的“最后一公里”神器来了!在AI生成图像(AIGC)领域,虽然技术日新月异,但生成的商品图常常面临一个尴尬问题:Logo模糊、文字错乱、细节丢失。这些看似微小的瑕疵,却足以让生成的图像在电商、广告等商业场景中失去实用价值。亚马逊与韩国大学联合推出的FlowFixer模型,正是为解决这一痛点而生。它通过“图像到图像”的翻译和修复技术,让AI生成的图像在保持整体场景构图和风格的同时,完美复现参考图中的精细细节,为AIGC的商业化落地扫清了障碍。
是馒头阿3 小时前
深度学习·神经网络·脑机接口·神经同步采集与刺激平台·植入式脑机接口
90、馒头谈自处有时大家在学习和工作时会遇到背后打小报告和给你无故使绊子的人,我从读硕士时(十一年前了)开始意识到,随着我认识的人越来越多,接触到不同的圈层时,我会再次审视这种人,我发现随着我的认知越来越高,这些人没有好坏之分,更没有对错,只是大家处在不同的能量频率中,表现出不同的言语和行为方式。所以我在上一篇博文中提到我多年坚持的三样东西,其一便是尊重他人的想法。各位同学何时明白【能量频率】是自身最好的风水这一点,你就会生出真正的爱和慈悲,你就会接纳,包容,默眼相观他人所做所为就好,此时请相信我,他人给你造成的困境会不
指掀涛澜天下惊3 小时前
人工智能·深度学习·机器学习·transformer·q k v
AI 基础知识十三 Transformer注意力机制(Attention)Transformer 的核心是自注意力与多头注意力,让序列每个位置都能动态关注全局相关信息,并行捕捉长程依赖。
机器学习之心3 小时前
深度学习·lstm·transformer·mvmd·锂电池剩余寿命预测
分解+组合+RUL预测!MVMD-Transformer-LSTM锂电池剩余寿命预测(容量特征提取+剩余寿命预测)锂离子电池在循环充放电过程中容量会逐渐衰减,准确预测电池剩余寿命(Remaining Useful Life, RUL)对电动汽车、储能系统等的安全运维至关重要。代码基于NASA公开的电池老化数据集(B0005、B0006、B0007、B0018),采用信号分解与深度学习融合的方法,实现电池容量衰减预测及RUL估计。
春末的南方城市4 小时前
人工智能·深度学习·数码相机·机器学习·计算机视觉·aigc
CVPR 2026 | 加州大学 × Adobe 联合发布 FaceCam:无4D数据训练下实现单视频精准相机控制,让短视频创作者轻松掌控“电影级”运镜。FaceCam仅需单个输入视频和目标相机轨迹即可生成具有精确相机控制的人像视频。我们引入了尺度感知相机条件化方法,通过渲染的面部特征点来表示目标相机,从而实现精确的相机姿态控制。我们的方法在保持高视觉质量的同时,保留了主体身份和运动信息,且无需任何4D合成数据进行训练。
bryant_meng4 小时前
人工智能·深度学习·rl·vla·世界模型·vlm
【VLA】Vision Language Action世界模型 是智能体(Agent)内部对环境动态(dynamics)的可学习、可推理的内部表征或模拟器。它能预测“如果我执行某个动作,环境会如何变化”。
撬动未来的支点4 小时前
人工智能·深度学习·神经网络
【神经网络核心】张量、正向传播(空间映射)、反向传播(调整映射参数)前面我们有一篇文章:神经网络基础—核心数据结构—张量。神经网络中的基本运算单位是张量。在学习到大模型中的Embeding技术时,才焕然大悟,现实中的一切数据,想要能够被神经网络处理和理解,都必须转为张量表示,这样它才能进入到神经网络中被处理。Embeding就是把传统的图像,文字,声音数据,转换为张量的过程。具体过程这里就不详细描述了,可以问一问AI。
小垣4 小时前
java·人工智能·深度学习·onnx
java调用yolo26n.onnx模型输出图像推理检测是通过ultralytics-yolo的源码将yolo26n.pt的模型转换成onnx格式,将pt格式的模型转换成onnx,ONNX Runtime 支持各种平台,例如 Windows、macOS 和 Linux,可以使用 ONNX Runtime 运行,java貌似支持。ONNX Runtime 可以提供高达 3 倍的 CPU 加速。
小付爱coding4 小时前
人工智能·深度学习·transformer
【AI核心原理30讲】-Transformer架构🔔 本专栏《AI核心原理30讲》:专注AI核心原理,回归技术本质。每篇追求一个目标——让复杂的东西变简单。
龙文浩_4 小时前
人工智能·深度学习
AI深度学习中的张量的类型转换AI深度学习中的张量的类型转换
jinanwuhuaguo5 小时前
java·大数据·开发语言·人工智能·深度学习
OpenClaw v2026.4.1 深度剖析报告:任务系统、协作生态与安全范式的全面跃迁本报告旨在对 OpenClaw 于 2026 年 4 月 2 日发布的 v2026.4.1 版本进行一次全面、深入、颗粒度至极的技术与战略解构。该版本由 30 余位社区贡献者共同完成,标志着 OpenClaw 在经历了 3 月份“架构重塑”与“安全加固”的底层革命后,正式迈入“体验深化”与“生态融合”的新阶段。
郝学胜-神的一滴5 小时前
人工智能·pytorch·python·深度学习·算法·机器学习
PyTorch张量维度操控:transpose与permute深度拆解与实战指南在深度学习的世界里,张量是所有数据流转的核心载体,而维度操作则是打通数据预处理、模型搭建、结果输出全流程的「底层密码」。无数开发者踩过的坑、卡过的bug,归根结底都逃不开「张量维度不匹配」这六个字。今天,我们就深度拆解PyTorch中两个核心的维度交换算子——transpose与permute,从底层逻辑、核心特性到实战案例、避坑指南,一次性把维度交换的底层逻辑讲透,帮你筑牢PyTorch开发的地基。
程序媛小鱼5 小时前
人工智能·深度学习·神经网络
deepseek相关技术理解MOE是什么: 一种模型架构设计。它不是用一个巨大的神经网络处理所有任务,而是内置了很多个“小专家网络”(每个擅长不同领域,如编程、历史、数学等)。对于每个输入的问题,一个**“路由网络”**会判断这个问题应该交给哪几个最相关的专家来处理,然后把它们的输出组合起来
星川皆无恙5 小时前
大数据·pytorch·笔记·深度学习·神经网络·自然语言处理·transformer
Transformer学习笔记:从 Attention 核心理论到机器翻译代码项目学习实战Transformer 凭借其极其大胆的创新——“彻底抛弃循环(RNN)和卷积(CNN),仅仅依赖注意力机制(Attention Mechanism)”,在 NLP 乃至多模态领域大放异彩。