深度学习

王哈哈^_^41 分钟前
人工智能·深度学习·算法·yolo·目标检测·计算机视觉·pyqt
【数据集】【YOLO】【目标检测】摔跤识别数据集 5097 张,YOLO行人摔倒识别算法实战训练教程!【数据集】行人摔倒识别数据集 5097 张,目标检测,包含YOLO/VOC格式标注。数据集中包含2种分类:{'0': 'Fallen', '1', 'Falling'},代表摔倒的人和正在摔倒的人,都表示摔倒状态。
Caesar Zou44 分钟前
人工智能·深度学习
深度学习⑨GANsDeep learning中主要两种模型· 判别模型专注于从输入预测输出,例如分类任务。学习数据点和标签之间的特征
Thanks_ks1 小时前
深度学习·docker·tensorflow·模型部署·容器化技术·模型训练·flask 应用
利用 TensorFlow 与 Docker 构建深度学习模型训练与部署流水线在深度学习领域,构建、训练和部署模型是一个复杂且耗时的过程。本文将介绍如何利用 TensorFlow 构建深度学习模型,并通过 Docker 容器化技术实现模型的训练与部署,从而简化整个流水线,提高开发效率。我们将通过实战代码,展示从模型构建到部署的全过程。
存内计算开发者3 小时前
人工智能·深度学习·神经网络·学习·机器学习·ai·存内计算
ISSCC 34.9 面向塑性神经网络集片上自学习与推理一体ISSCC34.9《A Flash-SRAM-ADC-Fused Plastic Computing-in-Memory Macro for Learning in Neural Networks in a Standard 14nm FinFET Process》(一种基于14nmFinFET工艺制造,面向神经网络学习的Flash-SRAM-ADC混合可塑性存内计算核)本文由中科院微电子所和复旦大学联合投稿,面向塑性神经网络(Plastic Neural Network,PNN)介绍了一种集片上自学习、
zjun30213 小时前
人工智能·pytorch·python·深度学习·华为
Ascend Extension for PyTorch的源码解析Ascend对pytorch代码的适配,可从以下链接中获取。 Ascend/pytorch 执行如下命令即可。
TIANE-Kimmy4 小时前
人工智能·深度学习·计算机视觉
对比:生成对抗网络(GANs)和变分自编码器(VAEs)以下是生成对抗网络(GANs)和变分自编码器(VAEs)的详细介绍、区别、优缺点的对比表:总结:
听风吹等浪起4 小时前
网络·深度学习·神经网络·分类·生活
改进系列(3):基于ResNet网络与CBAM模块融合实现的生活垃圾分类目录1. ResNet介绍2. CBAM 模块3. resnet + cbam3.1 添加在每个layer层后
计算机科研狗@OUC4 小时前
人工智能·深度学习·目标检测·计算机视觉
【TMM2024】Frequency-Guided Spatial Adaptation for Camouflaged Object Detection论文链接:https://arxiv.org/abs/2409.12421这个论文研究 Camouflaged Object Detection (COD)问题,作者认为,使用 pretrained foundation model 可以改进COD的准确率,但是当前的 adaptor 大多学习空间特征,对于纹理的细节变化缺乏适应性。因此,作者考虑在 adaptor 中加入频率域信息,论文的主要工作为设计了一个频率引导的空间注意模块( frequency-guided spatial attention m
Bearnaise4 小时前
论文阅读·笔记·python·深度学习·机器学习·计算机视觉·3d
PointMamba: A Simple State Space Model for Point Cloud Analysis——点云论文阅读(10)这篇文章提出了PointMamba,一种基于状态空间模型(SSM)的点云分析方法,通过引入线性复杂度算法来实现高效的全局建模。与传统基于Transformer的点云方法不同,PointMamba显著减少了计算资源需求,使用空间填充曲线进行点云序列化,简化了模型架构,并在多个数据集上展示了优越的性能,为3D视觉任务提供了一个简单且有效的解决方案。
武子康7 小时前
大数据·人工智能·python·深度学习·算法·机器学习·数据挖掘
大数据-214 数据挖掘 机器学习理论 - KMeans Python 实现 算法验证 sklearn n_clusters labels上节我们完成了如下的内容:函数编写完成后,先以 testSet 数据集测试模型运行效果(为了可以直观看出聚类效果,此处采用一个二维数据集进行验证)。testSet 数据集是一个二维数据集,每个观测值都只有两个特征,且数据之间采用空格进行分隔,因此可以使用 pd.read_table() 函数进行读取。
weixin_518285057 小时前
笔记·深度学习·神经网络
深度学习笔记11-神经网络逻辑回归用于解决二分类问题,softmax回归用于解决多分类问题,它们都是线性分类器。模型的决策边界都是直线。而神经网络既可以解决分类问题,也可以解决回归问题,不同的问题会选用不同的损失函数 。
佚明zj9 小时前
人工智能·深度学习
全卷积和全连接全连接网络和全卷积网络不一样以下是对两者的正确解释和代码示例:全连接网络使用的是 线性层(nn.Linear),也就是我们常说的“全连接层”。它是用于将每一个输入节点与输出节点直接连接的网络结构。
阿_旭13 小时前
人工智能·深度学习·计算机视觉·cross-attention·self-attention
一文读懂| 自注意力与交叉注意力机制在计算机视觉中作用与基本原理《博主简介》小伙伴们好,我是阿旭。专注于人工智能、AIGC、python、计算机视觉相关分享研究。 👍感谢小伙伴们点赞、关注!
王哈哈^_^13 小时前
前端·人工智能·深度学习·yolo·目标检测·计算机视觉·pyqt
【数据集】【YOLO】【目标检测】交通事故识别数据集 8939 张,YOLO道路事故目标检测实战训练教程!【数据集】道路事故识别数据集 8939 张,目标检测,包含YOLO/VOC格式标注。数据集中包含2种分类:{'0': 'accident', '1': 'non-accident'}。数据集来自国内外图片网站和视频截图。检测范围道路事故检测、监控视角检测、无人机视角检测、等,可用于智慧城市、智慧交通,服务于交通拥塞预警、交通安全排查。
Power202466614 小时前
人工智能·深度学习·机器学习·自然语言处理·nlp
NLP论文速读|LongReward:基于AI反馈来提升长上下文大语言模型论文信息:该论文试图解决的问题是如何提高长文本上下文大型语言模型(LLMs)在监督式微调(SFT)中的性能,尤其是在使用由LLMs自身自动合成的数据时,这些数据的质量往往会影响模型的长期上下文处理能力,导致模型存在固有的缺陷,如幻觉和无法充分利用上下文信息。论文的主要动机是,尽管强化学习(RL)通过适当的奖励信号可以进一步提升模型的能力,但在长文本场景中如何获得可靠的奖励信号仍然是一个未被探索的问题。为了解决这一挑战,论文提出了一种新的方法,旨在通过自动化的方式为长文本模型响应提供可靠的奖励,从而使得RL
YRr YRr15 小时前
人工智能·rnn·深度学习
深度学习:循环神经网络(RNN)详解**循环神经网络(Recurrent Neural Network, RNN)**是一类能够处理序列数据的神经网络,其设计使得网络可以在每个时间步上保留先前时间步的信息。RNN通过在时间步之间共享参数,能够建模输入序列中元素的时序依赖关系。由于其递归结构,RNN在自然语言处理、语音识别、时间序列预测等任务中得到了广泛应用。
sp_fyf_202415 小时前
人工智能·深度学习·神经网络·算法·机器学习·语言模型·数据挖掘
计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-11-01Authors: Zifeng Wang, Hanyin Wang, Benjamin Danek, Ying Li, Christina Mack, Hoifung Poon, Yajun Wang, Pranav Rajpurkar, Jimeng Sun https://arxiv.org/abs/2411.00024 适应通用AI至专业医疗AI应用及其挑战的视角
红客59715 小时前
深度学习·bert·transformer
Transformer和BERT的区别为什么要对位置进行编码? Attention提取特征的时候,可以获取全局每个词对之间的关系,但是并没有显式保留时序信息,或者说位置信息。就算打乱序列中token的顺序,最后所得到的Attention结果也不会变,这会丢失语言中的时序信息,因此需要额外对位置进行编码以引入时序信息。
多吃轻食15 小时前
人工智能·深度学习·神经网络·自然语言处理·embedding
大模型微调技术 --> 脉络微调技术从最早期的全模型微调演变成如今的各种参数高效微调(PEFT)方法,背后是为了应对大模型中的计算、存储和数据适应性的挑战
charles_vaez15 小时前
深度学习·语言模型·自然语言处理
开源模型应用落地-glm模型小试-glm-4-9b-chat-快速体验(一)GLM-4是智谱AI团队于2024年1月16日发布的基座大模型,旨在自动理解和规划用户的复杂指令,并能调用网页浏览器。其功能包括数据分析、图表创建、PPT生成等,支持128K的上下文窗口,使其在长文本处理和精度召回方面表现优异,且在中文对齐能力上超过GPT-4。与之前的GLM系列产品相比,GLM-4在各项性能上提高了60%,并且在指令跟随和多模态功能上有显著强化,适合于多种应用场景。尽管在某些领域仍逊于国际一流模型,GLM-4的中文处理能力使其在国内大模型中占据领先地位。该模型的研发历程自2020年始,经