深度学习

DANGAOGAO1 小时前
深度学习·学习·transformer
Transformer学习1.核心角色:Q,K,V到底在干什么?在 Multi-Head Attention (MHA) 机制中,每一个词(比如“中医”)都会通过线性变换生成三个身份:
纤纡.2 小时前
python·深度学习·算法·机器学习
矿物识别分类:8 种机器学习算法对比与实战(平均值填充数据集)矿物识别是地质勘探、矿产资源开发领域的核心任务之一,传统人工识别方式效率低、主观性强,而机器学习算法能基于矿物的物理 / 化学特征实现自动化、高精度分类。本文以平均值填充后的矿物数据集为基础,系统对比逻辑回归、随机森林、SVM、AdaBoost、GNB、XGBoost、神经网络(NN)7 种经典机器学习算法在矿物分类任务中的表现,详细讲解算法实现细节、参数选择逻辑,并分析不同算法的适配场景,为矿物识别工程实践提供参考。
Figo_Cheung2 小时前
深度学习·量子计算
Figo量子压缩态几何优化理论——首次将压缩参量空间建模为黎曼流形,为量子精密测量、连续变量量子计算和量子通信等领域提供新的理论框架。摘要量子压缩态作为非经典光场的重要形态,在量子精密测量、连续变量量子计算和引力波探测等领域具有广泛应用。然而,传统梯度优化方法易陷入局部最优解,且无法有效利用量子态参数空间的内禀几何结构。本文提出一种基于微分几何框架的量子压缩态优化方法,通过将压缩参量空间建模为黎曼流形,构造量子Fisher信息度规下的测地线优化方程,实现压缩方向与幅度的全局最优搜索。理论分析表明:压缩参数空间 {r,θ}\{r, \theta\}{r,θ} 构成可分离的二维凯勒流形,其度规张量分量为 grr=1g_{rr}=1grr=1
骇客野人2 小时前
人工智能·深度学习·transformer
用python实现Transformer要实现Transformer模型,我们可以使用PyTorch框架,因为它提供了丰富的张量操作和自动微分功能,适合构建深度学习模型。以下是一个完整的Transformer实现,包括编码器、解码器、注意力机制等核心组件:
听风吹等浪起3 小时前
人工智能·深度学习·线性代数·计算机视觉·矩阵
【SwinTransformer 全维度改进方案矩阵】—— 覆盖注意力、多尺度、通道/空间增强,适配CV全场景的工业级优化库在计算机视觉(CV)领域,Swin Transformer 凭借分层窗口注意力、平移窗口机制,突破了传统CNN的空间局部性限制,在图像分类、目标检测、语义分割等任务中展现出强大的特征建模能力。然而,单一架构难以适配所有场景的细粒度需求(如小目标识别、复杂背景分割、长距离依赖建模等)。为此,我们构建了**「SwinTransformer 全维度改进方案矩阵」——涵盖14+种针对性优化方向**,从注意力机制革新、多尺度特征聚合、通道/空间增强到轻量化高效建模,为不同CV任务(分类、检测、分割、姿态估计等)提供
bryant_meng4 小时前
人工智能·深度学习·自然语言处理·attention·seq2seq
【NLP】《The Evolution of NLP: Understanding RNNs, Seq2Seq, and Attention》Attention 最初是为了打破 RNN 在 Seq2Seq 任务中的瓶颈而诞生的。Seq2Seq (序列到序列:一种任务类型)
jay神4 小时前
人工智能·python·深度学习·yolo·可视化·计算机毕业设计
基于YOLOv8的传送带异物检测系统本项目面向传送带场景的异物检测任务,基于 YOLOv8 完成从数据集构建、模型训练、结果可视化到桌面端系统集成的完整深度学习工程流程。 项目目标是对传送带图像中的目标进行快速识别,并输出检测框、类别与置信度,支持在图形界面中进行模型管理、图片检测与历史记录查看。
放下华子我只抽RuiKe54 小时前
人工智能·rnn·深度学习·神经网络·线性代数·机器学习·矩阵
文本处理与RNN:硬核实战笔记📖 导读: 这份笔记覆盖NLP实战全流程:文本预处理、文本向量化、RNN/LSTM/GRU、注意力机制。
Flying pigs~~5 小时前
深度学习·自然语言处理·迁移学习
迁移学习之中文文本分类微调
张张123y5 小时前
人工智能·深度学习·面试
AI大模型应用面试:深度学习知识点汇总与面试指导🎯 适用岗位:AI应用开发工程师、算法工程师、大模型应用工程师 📅 更新时间:2024年 📊 难度等级:⭐⭐⭐⭐(中高级) ⏱️ 阅读时长:约45分钟
chushiyunen5 小时前
人工智能·pytorch·深度学习
大模型.safetensors文件如果想看内容的话,txt打开可以看到头部内容便于理解。 如果直接修改了里面的内容,启动大模型会报错,因为二进制文件会损坏。
是梦终空5 小时前
python·深度学习·opencv·毕业设计·torch·课程设计·pyqt5
计算机毕业设计269—基于python+深度学习+YOLOV8的交通标志识别系统(源代码+数据库+报告)毕设所有选题: https://blog.csdn.net/2303_76227485/article/details/131104075
北顾笙9806 小时前
人工智能·深度学习
深度学习day04Softmax 函数是一种将实数向量映射为概率分布的函数,常用于多分类问题的输出层。其核心思想是通过指数运算放大差异,再归一化得到概率。对于一个输入向量 z = [z₁, z₂, ..., zₙ],Softmax 的计算公式为:
龙文浩_6 小时前
人工智能·python·深度学习·神经网络·机器学习
AI / 机器学习 / 深度学习,它们的关系、核心流程、算法、任务、训练逻辑AI / 机器学习 / 深度学习,它们的关系、核心流程、算法、任务、训练逻辑。 将回归、神经网络、参数初始化,全都能串起来。 一、先把概念讲清楚(最重要) 1. 什么是人工智能(AI) AI = 让机器模拟人的智能行为感知、理解、推理、学习、决策、创造。它是一个超级大领域,机器学习只是其中实现智能的一种方法。 2. 什么是机器学习(ML) 机器学习 = 让机器从数据中自动学习规律,而不是人工写死规则 传统编程: 人写规则 + 数据 → 结果 机器学习: 数据 + 结果 → 机器自己学出规则(模型) 一句话
早睡早起好好code6 小时前
笔记·python·深度学习·学习·算法
InternNav 论文回看InternVLA-N1 一个双系统(Dual-System)视觉-语言导航基础模型 旨在解决现有机器人导航模型在长程规划能力、实时动态避障以及Sim-to-Real泛化性方面的问题
剑穗挂着新流苏3126 小时前
人工智能·pytorch·深度学习·神经网络
116_深度学习提速:PyTorch 利用 GPU 训练的全攻略在 PyTorch 中,利用 GPU 训练并不复杂,核心逻辑就是:将模型和数据“搬”到显卡内存中。 你的笔记中详细记录了两种实现方式,下面我们结合代码逐一拆解。
未来之窗软件服务6 小时前
人工智能·深度学习·bert·仙盟创梦ide·东方仙盟
BERT-tiny语音意图识别用[AI人工智能(六十三)]—东方仙盟BERT-tiny = 超级小、超级快的中文意图识别小模型专门干一件事:把一句话 → 识别成你预设的指令
人邮异步社区6 小时前
深度学习·学习·机器学习
大一学生如何入门机器学习,深度学习,学习顺序如何?数学基础 → Python编程 → 机器学习理论 → 深度学习框架 → 项目实践 → 领域扩展。1. 《动手学机器学习》
jay神6 小时前
人工智能·深度学习·yolo·目标检测·毕业设计·无人机
基于YOLOv8的无人机识别与检测系统本项目是一个围绕 YOLOv8 构建的无人机识别与检测系统,涵盖了深度学习项目从数据集组织、模型训练、参数调优、结果评估,到桌面端系统集成与功能开发的完整流程。项目以 Anti-UAV 单类别目标检测数据集为基础,完成了无人机目标检测模型训练,并在 PyQt6 图形界面中实现了图片识别、视频识别、摄像头实时识别、模型管理、训练指标展示与检测历史管理等功能。
serve the people6 小时前
人工智能·深度学习·bert
BERT模型简单来说,BERT(Bidirectional Encoder Representations from Transformers)是自然语言处理(NLP)领域的一座里程碑。如果把 AI 理解文字的过程比作“读书”,那么在 BERT 出现之前,AI 读书通常是从左往右读,或者从右往左读;而 BERT 的出现,让 AI 能够同时从两个方向理解文字,彻底改变了机器理解人类语言的方式。