深度学习

hzhj1 小时前
人工智能·深度学习
深度学习网络训练及部署环节相关工具CAM:类别激活映射图Saliency Maps:显著图SmoothGrad:效果更好的显著图GLIME:LIME方法的改进
江河湖海1 小时前
python·深度学习·tensorflow
1. 使用Python和TensorFlow进行深度学习入门教程,学习如何搭建神经网络并训练模型。深度学习,就像是一个超级聪明的大脑,能够从大量的数据中学习并提取有用的信息。它就像是一台神奇的机器,能够识别图像、理解语言、甚至预测未来!是不是听起来很酷呢?
AI大模型学徒1 小时前
深度学习·压力测试
YOLOv8目标检测(七)_AB压力测试YOLOv8目标检测(一)_检测流程梳理:YOLOv8目标检测(一)_检测流程梳理_yolo检测流程-CSDN博客
sp_fyf_20241 小时前
人工智能·深度学习·神经网络·机器学习·语言模型·分类
【大语言模型】ACL2024论文-30 探索语言模型在文本分类中的伪相关性:概念层面的分析【大语言模型】ACL2024论文-30 探索语言模型在文本分类中的伪相关性:概念层面的分析探索语言模型在文本分类中的伪相关性:概念层面的分析 https://arxiv.org/pdf/2311.08648
宝贝儿好1 小时前
人工智能·深度学习·自然语言处理·transformer
【NLP】第七章:Transformer原理及实操看本文前一定一定要先看注意力机制篇章:【NLP】第五章:注意力机制Attention-CSDN博客 和位置编码偏置:【NLP】第六章:位置编码Positional Encoding-CSDN博客 本文对这俩部分的讲解是掠过的!因为注意力机制是Transformer的核心,position encoding又太难,所以我分别单独开了一个章节来讲透attention和PE。尽量不要有太多的知识断点,你理解起来就比较容易。
sp_fyf_20242 小时前
人工智能·深度学习·机器学习·计算机视觉·语言模型·自然语言处理·数据挖掘
【大语言模型】ACL2024论文-28 TTM-RE: 增强记忆的文档级关系抽取【大语言模型】ACL2024论文-28 TTM-RE: 增强记忆的文档级关系抽取TTM-RE: 增强记忆的文档级关系抽取
sp_fyf_20243 小时前
人工智能·深度学习·机器学习·语言模型·自然语言处理·数据挖掘
【大语言模型】ACL2024论文-33 Johnny 如何说服大型语言模型越狱:通过人性化 LLMs 重新思考挑战 AI 安全性的说服技巧Johnny 如何说服大型语言模型越狱:通过人性化 LLMs 重新思考挑战 AI 安全性的说服技巧 https://arxiv.org/pdf/2401.06373
合方圆~小文3 小时前
人工智能·深度学习·数码相机·目标检测
工业摄像机基于电荷耦合器件的相机工业摄像机系列产品及其识别技术的详细介绍:一、工业摄像机概述工业摄像机是利用光学成像技术获取视觉信息,并通过图像处理算法分析这些信息的设备。它通常具有高图像稳定性、高传输能力和高抗干扰能力等特性,适用于各种复杂的工业环境。
红色的山茶花3 小时前
笔记·深度学习·yolo
YOLOv9-0.1部分代码阅读笔记-downloads.pyutils\downloads.py目录downloads.py1.所需的库和模块2.def is_url(url, check=True):
橙子小哥的代码世界4 小时前
人工智能·深度学习·神经网络·计算机视觉·分类·数据挖掘·卷积神经网络
【计算机视觉CV-图像分类】06 - VGGNet的鲜花分类实现:从数据预处理到模型优化的完整实战!引言VGGNet概述VGGNet的网络架构基于预训练VGGNet的五类鲜花分类实现4.1 数据准备与预处理
NONE-C4 小时前
深度学习
占个坑:利用工作以外的时间,用numpy实现MLP-手写识别随着近半年的正式工作,一直在做的都是模型后处理相关的,逐渐意识到技术的自我迭代陷入了瓶颈。组里都是搞模型的,对于缺少模型背景的我,很难深刻理解同事将模型和业务结合时好的idear,这使得我难以掌握组里最核心的技术创新。这会导致,虽然组里做的事能被公司乃至业界认可,但我所获甚少。在和导师交流之后,想法还是被支持的,为此我需要开始接触模型,需要更加深刻的认识模型。诚然,回顾之前在csdn更新的文章(python机器学习实战,花书阅读),0到1的突破会很难,但既然导师,同事都支持我个人发展的诉求,愿意给我机会,
Struart_R5 小时前
人工智能·深度学习·计算机视觉·transformer·视频生成
CogVideoX: Text-to-Video Diffusion Models with An Expert Transformer 论文解读目录一、前置知识1、Cogview2、Cogview23、Cogvideo二、CogvideoX概述三、CogVideoX架构
AI程序猿人9 小时前
人工智能·pytorch·深度学习·自然语言处理·大模型·transformer·llms
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力这些机制是GPT-4、Llama等大型语言模型(LLMs)的核心组件。通过理解这些注意力机制,我们可以更好地把握这些模型的工作原理和应用潜力。
胖哥真不错10 小时前
python·深度学习·tensorflow·项目实战·cnn分类模型·恶意软件检测
Python基于TensorFlow实现深度学习CNN的恶意软件检测项目实战说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后关注获取。
Ambition_LAO10 小时前
人工智能·深度学习·机器学习
LLaMA-Factory 基于 LoRA 的 SFT 指令微调及相关功能梳理微调数据的格式为 Alpaca 或 ShareGPT 格式,需进行以下步骤:自定义数据集转换:数据注册: 修改 data/dataset_info.json 文件,将数据集注册到系统中。
小白狮ww11 小时前
人工智能·深度学习·语言模型·自然语言处理·ai 音色克隆·ai 声音克隆·ai 对话
语言模型 F5-E2 TTS:音色 & 情绪一键克隆,轻松实现多角色对话F5-TTS 是由上海交通大学、剑桥大学和吉利汽车研究院(宁波)有限公司于 2024 年共同开源的一款高性能文本到语音 (TTS) 系统,它基于流匹配的非自回归生成方法,结合了扩散变换器 (DiT) 技术。 F5-TTS 的主要功能包括零样本声音克隆、速度控制、情感表现控制、长文本合成以及多语言支持。它的技术原理涉及到流匹配、扩散变换器 (DiT)、ConvNeXt V2 文本表示改进、Sway Sampling 策略以及端到端的系统设计。
赵大仁11 小时前
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理·数据挖掘
如何创建属于自己的大语言模型:从零开始的指南随着人工智能的快速发展,大语言模型(LLM)在各种场景中表现出了卓越的能力,例如文本生成、对话交互和内容总结等。虽然市场上已有诸如 OpenAI 的 GPT、Google 的 Bard 等强大的模型,但打造一个属于自己的 LLM 仍有以下独特价值:
MarkHD14 小时前
人工智能·rnn·深度学习
第二十四天 循环神经网络(RNN)基本原理与实现循环神经网络(Recurrent Neural Network,RNN)是一种用于处理序列数据的神经网络,它能够处理任意长度的序列,并且能够捕捉序列中的时间依赖关系。RNN的核心思想是网络的隐藏状态可以传递信息,从而使得网络能够在处理序列数据时记忆之前的状态。
爱研究的小牛14 小时前
人工智能·深度学习·机器学习·aigc
DeepFaceLab技术浅析(六):后处理过程DeepFaceLab 是一款流行的深度学习工具,用于面部替换(DeepFake),其核心功能是将源人物的面部替换到目标视频中的目标人物身上。尽管面部替换的核心在于模型的训练,但后处理过程同样至关重要,它决定了最终生成视频的视觉效果和真实感。
FL162386312914 小时前
深度学习
医学数据集肺肿瘤分割数据集labelme格式687张1类别数据集格式:labelme格式(不包含mask文件,仅仅包含jpg图片和对应的json文件)图片数量(jpg文件个数):681