深度学习

Json_3 分钟前
前端·javascript·深度学习
JS中的冒泡简洁理解
Json_4 分钟前
前端·vue.js·深度学习
Vue 自定义指令
机器鱼1 小时前
深度学习·机器学习·cnn
1.2 基于卷积神经网络与SE注意力的轴承故障诊断本博客来源于CSDN机器鱼,未同意任何人转载。更多内容,欢迎点击本专栏,查看更多内容。目录0 引言1 卷积神经网络故障诊断模型
牙牙要健康2 小时前
pytorch·深度学习·目标检测
【目标检测】【深度学习】【Pytorch版本】YOLOV2模型算法详解YOLOV2是由华盛顿大学的Joseph Redmon等人在《YOLO9000:Better, Faster, Stronger【CVPR-2017】》【论文地址】中提出的YOLO系列单阶段目标检测模型的升级改进版,核心思想是在YOLOV1基础上,通过一系列改进措施提升检测性能,即引入批量归一化(Batch Normalization)、使用高分辨率分类器/检查器、设计新的网络结构Darknet-19、采用多尺度训练(Multi-Scale Training)使得YOLOV2在保持高速的同时,大幅提升了检
wgc2k3 小时前
人工智能·深度学习
吴恩达深度学习复盘(4)神经网络的前向传播神经网络的前向传播(Forward Propagation)是指输入数据从输入层经过各隐藏层传递到输出层,逐层计算激活值的过程。这一过程不涉及参数更新,主要用于生成预测结果或为反向传播提供中间值。如果觉得理解起来过于抽象,就把这个过程作为为了得到结果所需要做的必要过程好了。
屎派克3 小时前
人工智能·深度学习·神经网络
神经网络知识前馈神经网络(Feedforward Neural Network, FNN):输入层和输出层映射:前馈神经网络的结构通常包括输入层、隐藏层和输出层。输入层接收数据,通过隐藏层的神经元进行计算,最终通过输出层得到结果。
硅谷秋水5 小时前
人工智能·深度学习·机器学习·语言模型·自然语言处理
大语言模型智体的综述:方法论、应用和挑战(下)25年3月来自北京大学、UIC、广东大亚湾大学、中科院计算机网络信息中心、新加坡南阳理工、UCLA、西雅图华盛顿大学、北京外经贸大学、乔治亚理工和腾讯优图的论文“Large Language Model Agent: A Survey on Methodology, Applications and Challenges”。
林泽毅5 小时前
深度学习·机器学习·强化学习
SwanLab Slack通知插件:让AI训练状态同步更及时在AI模型训练的过程中,开发者常常面临一个难题:如何及时跟踪训练状态?无论是实验超参数的调整、关键指标的变化,还是意外中断的告警,传统的监控方式往往依赖手动刷新日志或反复检查终端,这不仅效率低下,还可能因信息滞后导致资源浪费和决策延迟。
大霸王龙6 小时前
python·深度学习·学习
LLM(语言学习模型)行为控制技术LLM(语言学习模型)行为控制技术是指用于引导、管理和监控语言学习模型行为的方法和技术。这对于确保这些模型产生准确、安全且道德的响应至关重要。
Peter11467178507 小时前
服务器·人工智能·笔记·深度学习·学习
服务器入门操作1(深度学习)查看GPU状态:清屏:anaconda相关:进入虚拟环境后:ctrl+c: 停止当前命令的执行在命令行运行python:
lisw0515 小时前
人工智能·深度学习·算法
DeepSeek原生稀疏注意力(Native Sparse Attention, NSA)算法介绍李升伟 整理DeepSeek 提出的原生稀疏注意力(Native Sparse Attention, NSA)算法是一种创新的注意力机制,旨在解决大语言模型(LLM)在处理长序列数据时的计算瓶颈问题。NSA 通过结合算法优化和硬件对齐设计,显著提升了长文本建模的效率,同时保持了模型的性能。以下是 NSA 的核心特点和技术细节:
美狐美颜sdk19 小时前
android·深度学习·ios·美颜sdk·第三方美颜sdk·视频美颜sdk
美颜SDK兼容性挑战:如何让美颜滤镜API适配iOS与安卓?如何让美颜滤镜API同时适配iOS与Android,并确保性能流畅、效果一致,是开发者面临的一大挑战。今天,我将与大家一同深度剖析美颜SDK的跨平台兼容性问题,并分享优化适配方案。
HABuo19 小时前
人工智能·深度学习·yolo·目标检测·计算机视觉
【YOLOv8】YOLOv8改进系列(11)----替换主干网络之MobileNetV4主页:HABUO🍁主页:HABUO🍁YOLOv8入门+改进专栏🍁🍁如果再也不能见到你,祝你早安,午安,晚安🍁
Kai HVZ20 小时前
人工智能·深度学习·bert
《深度学习》——bert框架BERT(Bidirectional Encoder Representations from Transformers)是由 Google 在 2018 年提出的预训练语言模型框架,其核心思想是通过双向 Transformer 编码器学习深层语言表征,在自然语言处理(NLP)领域具有里程碑意义。
紫雾凌寒20 小时前
人工智能·深度学习·自然语言处理·金融·事件抽取·金融舆情·风险预警
自然语言处理|金融舆情解析:智能事件抽取与风险预警之道在金融领域,信息是投资决策的关键因素。金融市场受宏观经济数据、政治局势、企业业绩、市场情绪等多种因素影响,呈现高度的波动性和不确定性。例如,一家上市公司的财报发布,若净利润超出预期,可能导致股价短期内上涨;若数据不及预期,则可能引发股价下跌。同样,央行调整利率政策,会迅速影响债券市场和外汇市场。
进取星辰21 小时前
人工智能·pytorch·深度学习
PyTorch 深度学习实战(30):模型压缩与量化部署模型压缩是解决深度学习模型在资源受限设备上部署的关键技术,主要包括以下方法:量化(Quantization):
小白的高手之路1 天前
人工智能·pytorch·python·深度学习·神经网络·cnn
常用的卷积神经网络及Pytorch示例实现以下是几种常用的 卷积神经网络(CNN) 架构及其 PyTorch 实现示例,涵盖经典模型和现代变体。这些模型在图像分类、目标检测等任务中表现卓越。
神经星星1 天前
人工智能·深度学习·机器学习
在线教程丨YOLO系列重要创新!清华团队发布YOLOE,直击开放场景物体实时检测与分割YOLO (You Only Look Once) 自 2015 年首次发布以来,已经成为计算机视觉领域中最具影响力的实时目标检测模型之一。这项基于单阶段 (One-Stage) 检测架构的端到端目标检测技术,在 10 年间已经更新了十余个版本,凭借高精度且高帧率图像的实时处理,广泛应用于自动驾驶、医疗影像分析、机器人视觉等多个领域。