神经网络

仙女修炼史36 分钟前
人工智能·神经网络·cnn
CNN可视化工具 CAM的理解Eigen-CAM来自论文《Eigen-CAM: Class Activation Map using Principal Components》,Eigen-CAM的流程如下图:
nap-joker3 小时前
人工智能·神经网络·生成对抗网络
使用Image - To - image条件生成对抗网络评估乳腺癌新辅助化疗反应的动态对比增强MRI血管渗透性映射1、提出了一种基于条件生成对抗网络(cGAN)的新方法,用于将动态对比增强磁共振成像(DCE MRI)快速转换为药代动力学(PK)血管通透性参数图(Ktrans),以早期预测乳腺癌患者对新辅助化疗(NACT)的病理反应。
陈天伟教授4 小时前
人工智能·神经网络·机器学习·量子计算·推荐算法
人工智能应用- 走向未来:05.量子计算量子计算是另一项有望改变未来计算格局的颠覆性技术。不同于传统计算机基于 0/1 二进制系统进行计算,量子计算机采用量子比特(qubits)来存储和处理信息。量子比特的独特之处在于它可以同时处于 0 和 1 的叠加状态,从而实现并行计算。这一特性使量子计算在特定问题上具有巨大优势,例如密码学中的大数分解问题。
罗罗攀5 小时前
人工智能·pytorch·笔记·神经网络·学习
PyTorch学习笔记|单层神经网络其实神经网络并不复杂,我们经过前面的铺垫,如果只看单层的网络(输入层不算),其实就是下面这张图片,好像其实也就是一个线性回归的方程,当然神经网络只所以好用,是因为有多层网络和非线性的激活函数,这个我们后面再来说。
阿钱真强道15 小时前
深度学习·神经网络·机器学习·mlp·决策边界
08 从 MLP 到 LeNet:为什么一个神经元不够?一个神经元已经能够接收输入、完成加权计算,并给出一个分类判断。看起来,它已经具备了最基础的“分类能力”。但只要问题稍微复杂一点,这种结构就会很快碰到明显的能力边界。
Westward-sun.18 小时前
人工智能·神经网络·opencv·计算机视觉·dnn
基于 OpenCV DNN 模块实现图像风格迁移相信很多接触计算机视觉的同学都听过风格迁移—— 这项技术能把一张名画的艺术风格 “移植” 到普通照片上,让你的随手拍秒变世界名画同款画风。
机器学习之心20 小时前
神经网络·tcn-bilstm·贝叶斯优化·shap分析
Bayes-TCN-BiLSTM+SHAP分析,贝叶斯优化时间卷积双向长短期网络分类预测可解释性分析!Matlab代码MATLAB 代码实现了一个基于贝叶斯优化(BO) 的 TCN-BiLSTM(时间卷积网络 + 双向长短期记忆网络) 分类模型,主要用于数据分类任务。以下是对代码的详细分析:
披着羊皮不是狼1 天前
人工智能·神经网络·cnn
CNN卷积输出尺寸计算(公式+实例)无论多么复杂的网络,其输出尺寸(Width 或 Height)都遵循下面这个黄金公式: 参数含义: 注意: 如果结果不是整数,通常采用“向下取整”(Floor),但在某些框架的特定 Padding 模式下会有不同,建议以整数对齐为准。
春日见1 天前
人工智能·深度学习·神经网络·计算机视觉·docker·cnn·计算机外设
从底层思维3分钟彻底弄清卷积神经网络CNNGitHub链接:http://animatedai.github.io优势:参数数量与图像尺寸无关,只与卷积核大小有关
Learn Beyond Limits1 天前
人工智能·深度学习·神经网络·机器学习·ai·语言模型·自然语言处理
RNN的多样化用途|The diverse applications of RNN-----------------------------------------------------------------------------------------------
龙文浩_1 天前
人工智能·python·深度学习·神经网络·机器学习
AI机器学习中NumPy随机种子的应用AI机器学习中NumPy随机种子的应用
liliangcsdn1 天前
人工智能·深度学习·神经网络
神经网络中log加替代直接乘的原因探索这里尝试基于网络资料,探索神经网络里为什么常用log加,不直接乘的原因。简单概括就是把乘法变加法,既好算、又稳定、还能求梯度。
Web极客码1 天前
人工智能·pytorch·神经网络
PyTorch 实战:为神经网络开启“实时自愈”模式想象一下,你开发的欺诈检测模型在线上跑得稳稳当当,准确率高达 92.9%。但随着黑产手段升级,交易特征悄然偏移。
老鱼说AI2 天前
人工智能·深度学习·神经网络·学习·机器学习·语言模型
大模型学习与面试精讲第六期:损失函数篇我大概讲一下损失函数的常见概念然后我进入问答阶段,在问题中学习概率与知识。大模型的训练通常分为两大核心阶段:预训练/指令微调(Pre-training & SFT) 和 人类偏好对齐(Alignment, 如 RLHF/DPO)。
LaughingZhu2 天前
数据库·人工智能·经验分享·神经网络·chatgpt
Product Hunt 每日热榜 | 2026-03-29—## 1. SlapMac标语:拍一拍你的MacBook,它会回应你。这就是全部。介绍:我觉得这个产品不应该在这里。
剑穗挂着新流苏3122 天前
人工智能·pytorch·深度学习·神经网络·线性代数
206_深度学习进阶:模型选择、过拟合与欠拟合的生存法则在机器学习中,我们的目标是发现泛化(Generalization)模式,即在未见过的数据上也能预测准确。然而,模型往往会陷入两个极端:要么学得太浅(欠拟合),要么记住了噪音(过拟合)。
WSY算法爱好者2 天前
人工智能·深度学习·神经网络
基于遗传算法优化BP神经网络的边坡稳定性预测========== 性能指标 ========== 标准BP - 训练集 RMSE: 0.2216, MAE: 0.1771, R²: 0.8690, MRE: 14.10% GA-BP - 训练集 RMSE: 0.1658, MAE: 0.1137, R²: 0.9266, MRE: 8.91% 性能提升: RMSE改善 25.16%, R²提升 6.63%
逻辑君2 天前
人工智能·神经网络·机器学习·机器人
球机器人研究报告【202600001】只所以搞出这样的球机器人出来,就是想借对该3个机器人的行为及表现进行认识科学的研究,想研究意识的涌现。
A尘埃3 天前
人工智能·深度学习·神经网络·激活函数
神经网络的激活函数+损失函数10个样本数据data,20个对Sigmoid函数进行线性变换的参数值(5个Sigmoid函数,每个函数有4个值)
有为少年3 天前
人工智能·深度学习·神经网络·算法·机器学习·大模型·预训练
告别“唯语料论”:用合成抽象数据为大模型开智在过去几年中,大语言模型(LLM)的训练范式几乎是一成不变的:在海量的自然语言网络语料(Web-scale corpora)上进行下一个词预测(Next-token prediction)。Scaling Law(缩放定律)被视为不可挑战的真理,仿佛只要给模型喂入更多的人类文本、投入更多的算力,通用人工智能(AGI)就会自动涌现。然而,这种依赖于“大力出奇迹”的路径正面临空前严峻的挑战: