深度学习

liliangcsdn几秒前
人工智能·深度学习
LLM判断检索文档能否回答问题的探索大模型判断检索到的文档列表能否回答问题,是通过一套概率计算、模式匹配和语义理解完成的。简单来说,LLM不是确定,而是推断文档列表是否有可能包含了回答问题的信息。
房开民12 分钟前
深度学习
tensorrt基本流程TensorRT 推理分为两个独立阶段:💡 最佳实践:构建一次,推理多次(Engine 可序列化保存,避免重复构建)
_YiFei1 小时前
人工智能·深度学习
2026年度论文降重工具全维度评测|高效、合规、低重复率综合榜单我们从全网主流论文降重工具中筛选出表现突出的产品,围绕降重效率、学术合规性、重复率控制三大核心指标,结合实际使用体验完成综合评分,最终TOP5榜单如下:
renhongxia11 小时前
人工智能·深度学习·神经网络·算法·机器学习·知识图谱
从模仿到创造:具身智能的技能演化路径在当前具身智能(Embodied Intelligence)的发展浪潮中,“模仿学习”(Imitation Learning)无疑是主流范式——通过大量人类示范数据(如遥操作轨迹),训练机器人复现开门、抓取、装配等行为。Figure、Tesla Optimus、Mobile ALOHA 等系统都依赖这一路径快速获得基础能力。
有Li2 小时前
人工智能·深度学习·文献·医学生
基于几何映射的二维自然图像到四维fMRI脑图像的迁移学习/文献速递-大模型与图像分割在医疗影像中应用2026.3.13本研究提出了一种基于几何映射的fMRI迁移学习方法,通过将四维fMRI脑皮层数据转换为二维图像,并结合多尺度多域特征聚合(MMFA)模块,有效解决了fMRI小样本数据深度学习的挑战,并在性别分类、年龄估计、行为测量预测和抑郁症诊断等任务中取得了最先进的性能。
Flying pigs~~2 小时前
人工智能·rnn·深度学习·自然语言处理·循环神经网络
深度学习之循环神经网络RNN循环神经网络(Recurrent Neural Network)是一种专门处理序列数据的神经网络计算模型。
ホロHoro2 小时前
人工智能·深度学习
深度学习路线你提到的这 4套其实是AI入门最经典的资源。但它们的定位完全不一样,如果顺序搞错,会非常痛苦。我给你一个 非常现实的评价 + 推荐学习顺序(很多AI从业者也是这么走的)。
XuecWu33 小时前
人工智能·深度学习·语言模型·自然语言处理
Karpathy的AutoResearch与Gemini三层 Agent 架构后的相通设计逻辑1. Karpathy刚开源的 autoresearch,跟 Google DeepMind 的三层 Agent 架构不谋而合。Google 论文里,Gemini Deep Think 负责提假设。autoresearch 里,agent 读 program.md 生成假设。LLM 都作为无约束的假设生成机。(这样做的本质在于发挥LLM输出的多样性,充分利用其创意能力)
_小雨林3 小时前
人工智能·深度学习·transformer
Transformer模型、整体结构,编码器与解码器内部组成此前的Seq2Seq模型通过Attention机制取得了一定提升,但由于整体结构仍依赖RNN,依然存在
放下华子我只抽RuiKe53 小时前
大数据·人工智能·深度学习·elasticsearch·机器学习·搜索引擎·全文检索
AI大模型开发-实战精讲:从零构建 RFM 会员价值模型(再进阶版:模拟数据 + 动态打分 + 策略落地)欢迎来到 RFM 模型再进阶版 教程。在这个版本中,我们不再满足于简单的“跑通代码”,而是要深入理解数据生成的逻辑、动态打分的数学原理以及如何将数据转化为商业决策。
V搜xhliang02464 小时前
人工智能·深度学习·机器学习·语言模型·自然语言处理
世界模型、强化学习PPOSAC世界模型和强化学习(特别是PPO和SAC算法)共同构成了让智能体在想象中预演、在交互中进化的核心能力。 如果说VLA是机器人的"大脑",那么世界模型就是大脑中构建的"虚拟现实沙盘",而强化学习(PPO/SAC) 则是让机器人在这个沙盘中自主学习的"训练法则"。下面我们来逐一拆解。 🌍 世界模型:在想象中预演未来的"虚拟现实沙盘" 世界模型的核心思想是让智能体在学习如何行动之前,先学习世界是如何运转的。它通过观察大量数据(如视频),尝试理解环境的动态规律,从而能够"想象"出不同动作可能导致的结果。
liliwoliliwo5 小时前
人工智能·深度学习
深度学习--CNN图像左边是10(亮色),右边是0(暗色),中间有一条垂直的敏感分界线(边缘),用特定的卷积核,让这条边缘"凸显"出来。
闻道且行之6 小时前
人工智能·pytorch·深度学习
PyTorch 深度学习开发 常见疑难报错与解决方案汇总本文旨在系统记录使用 PyTorch 进行深度学习开发过程中遇到的各类疑难报错与异常问题,详细梳理报错现象、排查思路及最终解决方案。一方面是为了复盘问题解决过程,沉淀技术经验;另一方面也能避免后续再次遇到同类问题时重复踩坑,提升开发效率。
Hali_Botebie6 小时前
深度学习·神经网络·cnn
条件卷积是什么卷积在看论文《CondLaneNet: a Top-to-down Lane Detection Framework Based on Conditional Convolution》时,作者说: we propose the conditional lane detection strategy based on conditional convolution – a convolution operation with dynamic kernel parameters [14, 40].
冰西瓜6006 小时前
人工智能·深度学习
深度学习的数学原理(十七)—— 归一化:BN与LN在深度学习模型的训练中,归一化技术是解决内部协变量偏移(ICS)、稳定梯度传递、加速收敛的关键手段。Batch Normalization(BN)和Layer Normalization(LN)作为最常用的两种归一化方法,分别适配CNN的图像任务和Transformer的序列任务,其数学设计与应用场景的差异直接决定了模型的训练效果。
bryant_meng6 小时前
人工智能·深度学习·计算机视觉·aigc·资讯
【Reading Notes】(7.11)Favorite Articles from 2024 November吞吐量最高飙升20倍!豆包大模型团队开源RLHF框架,破解强化学习训练部署难题(2024年11月01日)
Pyeako7 小时前
人工智能·python·rnn·深度学习·lstm·循环神经网络·遗忘门
深度学习--循环神经网络原理&局限&与LSTM解决方案目录一、为什么需要RNN?传统神经网络的痛点二、RNN核心原理:带“记忆”的网络结构三、RNN的致命局限:长期依赖问题
Wu_Dylan8 小时前
人工智能·深度学习·神经网络
液态神经网络系列(七) | 事件驱动与可变步长:把“稀疏计算”做到极致在前几章中,我们沉浸在液态神经网络(LNN)带来的“连续时间建模”的美感中。它优雅、鲁棒、且具备物理直觉。然而,工程师的直觉会立刻抛出一个现实的拷问:计算开销怎么办?
Alsian9 小时前
人工智能·深度学习·机器学习
Day 42 通道注意力@浙大疏锦行是最常用、最简单、效果最好的通道注意力。
大连好光景9 小时前
深度学习·机器学习
不同任务场景下的模型选择我的背景:我目前所知道名字的有很多模型,如: 1.线性模型与广义线性模型:线性回归、逻辑回归、线性SVM(支持向量机)、感知机。 2.基于距离的模型:K近邻(KNN)、K-Means聚类、层次聚类。 3.神经网络与深度学习:多层感知机(MLP)、卷积神经网络(CNN)、循环神经网络(RNN)。 4.主成分分析(PCA) 5.正则化模型:Lasso回归、Ridge回归、弹性网络。 6.树模型:决策树、随机森林、梯度提升树(GBDT、XGBoost、LightGBM、CatBoost)。 7.朴素贝叶斯 8.