深度学习

WHS-_-202231 分钟前
深度学习·transformer
Neural Representation for Wireless Radiation Field Reconstruction (II)如第六节和第七节所示,所提出的 WRF-GS 框架在重建 WRF 和合成用于无线信道建模的空间频谱方面表现出显著的有效性。然而, WRF-GS 在精确建模高频信号变化方面面临局限性,因为 WRF-GS 中 3D 高斯的静态特性限制了其捕捉由复杂多径效应引起的信道快速变化的能力。
m0_564876841 小时前
人工智能·python·深度学习·学习
提示词工程手册学习尽量说做什么,而不是说不做什么。(bad)提示:输出:(good)提示:输出:参考:https://help.openai.com/en/articles/6654000-best-practices-for-prompt-engineering-with-openai-api
科研实践课堂(小绿书)3 小时前
人工智能·深度学习·神经网络
华科/浙大团队Science子刊:光计算抛弃模拟乘法,用逻辑门跑神经网络光计算为满足日益增长的计算需求提供了一条前景广阔的途径。然而,光模拟计算易受环境扰动影响,高度依赖数模转换器和模数转换器,并需要电子或光子非线性运算。尽管光数字计算缓解了部分问题,但其对人工、任务特定配置的依赖阻碍了更广泛的应用(如推理)。本文提出光逻辑卷积神经网络(OLCNN)的概念,展示了一种用于模式生成的1×3光逻辑卷积算子(OLCO),并验证了其在20 Gbit/s下的高速计算能力。随后实现2×2 OLCO 以执行三种图像边缘提取任务。通过扩展设计,构建了3×3 OLCO 的 OLCNN ,实现在
鼎上西瓜刀4 小时前
人工智能·深度学习
labelimg在windows上的使用复制到根目录下(我放到的是D盘下)运行后,将会看到启动界面,注意,不要点击关闭运行之后,还会看到另外一个界面,这就是我们操作界面,看到这个界面,说明我们软件启动成功
茗创科技4 小时前
深度学习·神经网络·脑网络
Cerebral Cortex|工作记忆中α-θ跨频率耦合支持功能分离而非整合的新证据一项对公开高密度EEG数据的再分析发现:在工作记忆保持阶段,前额θ与顶叶α之间出现接近2:1频率比的比例上升,但多种连接性指标同时下降。研究还发现,两者的相位同步在工作记忆期间降低,并且同步越强,任务正确率反而越低,提示这一频率比变化更符合功能分离而非整合。
Ronaldinho Gaúch5 小时前
人工智能·深度学习·机器学习
梯度消失与梯度爆炸在深度神经网络训练过程的反向传播,梯度逐渐变得非常小或非常大。导致这个现象的主要原因是激活函数和权重初始化不对
查无此人byebye5 小时前
人工智能·深度学习·神经网络·自然语言处理
硬核深度解析:KimiDeltaAttention 源码逐行精读+公式推导+复杂度优化(完整可运行)本文深度拆解 Kimi 大模型核心 KimiDeltaAttention(KDA) 源码,逐行解读、公式推导、设计思想、复杂度优化一网打尽,附带完整可直接使用代码,适合深度学习/大模型/注意力机制研究者学习。
丰海洋5 小时前
人工智能·深度学习·transformer
Transformer参数量1. Token Embedding:嵌入层的作用是将输入的词或标记转换为固定维度的向量。假设词汇表的大小为 V,嵌入向量的维度为 d_model。那么嵌入层的参数量就是 V × d_model
kingcjh975 小时前
深度学习
2.1 vLLM-Omni + Wan2.1-T2V-1.3B测试数据npu-smi info
专业发呆业余科研6 小时前
人工智能·深度学习·神经网络·机器学习
从“炼金术”到“建筑学”:深度学习结构设计的五大范式在深度学习的早期,我们往往沉迷于增加层数、调整学习率或更换激活函数,这种“调参黑盒”更像是某种现代炼金术。但随着领域的发展,优秀的架构设计正逐渐转向“建筑学”——即基于问题的内在物理性质或几何约束,去构建具有特定“脾气”的网络算子。
剑穗挂着新流苏3126 小时前
开发语言·pytorch·python·深度学习
208_深度学习的鲁棒性之美:暂退法(Dropout)原理与实战在训练大型神经网络时,神经元之间容易形成“共适应性”(Co-adaptation),即某些神经元过度依赖其他神经元,导致模型过度拟合训练数据的特定细节。暂退法通过在训练期间随机“关掉”一部分神经元,强迫每个神经元都能独立地学习有用的特征。
数智工坊6 小时前
人工智能·深度学习
【深度学习基础】Focal Loss、Dice Loss、组合损失函数Focal Loss 是专为类别不均衡场景设计的损失函数,在目标检测任务中效果突出。该方法由 Facebook AI Research(FAIR)率先提出,被应用于 RetinaNet 等检测模型,有效缓解了正负样本比例严重失衡的问题。
程序员Shawn7 小时前
人工智能·深度学习·神经网络
【深度学习 | 第二篇】- 神经网络基础神经网络模型是通过模仿生物神经网络结构和功能的计算模型,由大量神经元(加权求和 + 激活函数)相互连接构成,通过层间连接实现特征提取与规律学习。
迷藏4947 小时前
java·人工智能·python·深度学习
**发散创新:基于Python与深度学习的情绪识别实战全流程解析**在人工智能快速发展的今天,**情绪识别(Emoti发散创新:基于Python与深度学习的情绪识别实战全流程解析在人工智能快速发展的今天,情绪识别(Emotion Recognition) 已成为人机交互、智能客服、心理健康辅助等场景的核心技术之一。本文将带你从零开始搭建一个完整的基于Python的实时情绪识别系统,融合OpenCV图像采集、深度学习模型训练(使用ResNet-18预训练模型微调)以及情绪分类可视化展示,真正实现“代码即价值”。
liliwoliliwo7 小时前
深度学习·神经网络
Deformale DETRtransformer需要很长的时间去训练和收敛。(这里就是在说 transformer在图像上很难训练)
剑穗挂着新流苏3127 小时前
人工智能·深度学习
209_深度学习的生存哲学:数值稳定性、梯度爆炸与 Xavier 初始化在构建深度网络时,随着层数的增加,梯度在反向传播过程中会经过多次矩阵乘法。如果处理不当,这些梯度要么会变得无穷大(爆炸),要么会趋近于零(消失)。本篇将深入探讨如何通过合理的初始化和激活函数来驯服深度网络。
AI视觉网奇8 小时前
人工智能·pytorch·深度学习
LtxVAE 学习笔记目录LtxVAE 推理代码repeat 尝试:
木头程序员8 小时前
人工智能·python·深度学习·d2l
关于load_data_fashion_mnist函数运行原理以及运行速度慢解决方案在 PyTorch 深度学习入门实践中,Fashion-MNIST 时尚服饰数据集是新手必练的经典数据集,而load_data_fashion_mnist函数几乎是加载该数据集的标配工具。
数智工坊8 小时前
人工智能·深度学习
【深度学习基础】Softmax、Sigmoid、CrossEntropy Loss介绍Softmax 是一种归一化函数,它能将一组任意大小的原始分数(Logits),转换为总和为 1 的概率分布。它的作用就像 “分配器”,确保所有类别的概率加起来等于 100%,让模型能直接读出每个类别的置信度。
老鱼说AI8 小时前
人工智能·深度学习·神经网络·学习·自然语言处理·面试·架构
大模型学习与面试第六期:大模型知识进阶这里主要是做一些知识的补充,所以主要是提问与问题的讲解。这是影响文本丰富度最直观的参数。模型预测出所有可能接下来的词后,会使用“温度”来调整这些词的概率分布。