深度学习

Binary_ey3 小时前
人工智能·深度学习·机器学习
光刻技术第22期 | 贝叶斯压缩感知光源优化的优化技术及对比分析01/简介随着集成电路制程迈入3nm及以下先进节点,光刻系统中的光学衍射、掩模三维效应与光致抗蚀剂非线性响应形成强耦合,使光源优化(SO)成为保障成像精度、扩展工艺窗口的核心技术环节。传统线性压缩感知光源优化技术因难以量化参数不确定性,优化结果易出现鲁棒性不足问题;经典优化算法如固定步长梯度下降,常面临收敛迟缓或震荡难题;
咚咚王者3 小时前
人工智能·深度学习·神经网络
人工智能之知识处理 知识推理 第三章 图神经网络与知识推理:让图谱“活”起来第三章 图神经网络与知识推理:让图谱“活”起来在前两章中,我们学会了如何定义知识和构建知识图谱。但传统的知识图谱是静态的——它像一本死记硬背的百科全书,如果书里没写,它就不知道。
taWSw5OjU4 小时前
人工智能·深度学习
从模型评估、梯度难题到科学初始化:一步步解析深度学习的训练问题要理解模型的泛化能力,我们首先要量化它的“泛化误差”,即模型在未知数据上的表现。然而,泛化误差并非一个单一的问题,它源于三种不同性质的错误:模型固有的近似能力不足、对训练数据的过度敏感、模型数据本身的不可约噪声。
Ricardo-Yang5 小时前
数据结构·人工智能·python·深度学习·算法
SCNP语义分割边缘logits策略最近看到一个很有意思的工作:SCNP。https://jmlipman.github.io/SCNP-SameClassNeighborPenalization/
新缸中之脑5 小时前
人工智能·深度学习·bert
微调BERT进行命名实体识别简历解析是命名实体识别(NER)最实际的应用之一。不是从新闻文本中提取通用实体,如人员或组织,而是希望识别简历中的结构化信息,如姓名、电子邮件、电话号码、职位、公司、技能、地点、学位和大学。
人机与认知实验室6 小时前
人工智能·深度学习·神经网络·机器学习
神经网络、数学、理性思维真能实现通用智能吗?一、神经网络真能实现通用智能吗?这是一个非常深刻且在科学界争论不休的问题。简单直接的回答是:仅靠目前的神经网络技术,很难实现真正的通用智能(AGI),它更像是通往AGI拼图中至关重要但并非唯一的一块。 虽然神经网络(特别是深度学习)在图像识别、语言生成等领域取得了惊人的成就,但要达到像人类一样具备跨领域推理、常识理解和自主学习的“通用智能”,目前面临着巨大的理论瓶颈。 我们可以从以下几个维度来拆解这个复杂的命题: 🚧 1. 现状:它是“专用智能”的王者,却是“通用智能”的跛脚者
Gary jie7 小时前
人工智能·深度学习·opencv·目标检测·机器学习·长短时记忆网络
OpenClaw4月更新的梦境记忆巩固系统一篇涵盖 AI 助手能力、记忆系统、手机远程访问、Windows 权限与系统目录的实战指南受人类睡眠记忆巩固理论的启发:
大神的风范7 小时前
驱动开发·深度学习·qt·目标检测·计算机视觉
QT部署YOLO11实时检测实验视频qt_yolo11测试视频配合博客这篇文章主要讲述的是在QT中编辑检测界面以及输出实时目标检测的画框界面,是基于YOLOV11进行开发的,在完成这篇文章之前请首先参考这篇文章正点原子瑞芯微RK3568部署YOLOV11模型,因为这篇文章主要是在之前那篇文章的基础上进行试验的。绝大多数文件都是基于官方代码移植的。
清空mega9 小时前
网络·深度学习·batch
动手学深度学习|批量归一化(Batch Normalization)超详细讲解:为什么它能让深层网络更容易训练?这一节很重要,因为从这里开始,你会发现:卷积神经网络的进步,不只是来自“结构怎么设计”,还来自“训练怎么更稳定”。
LSQ的测试日记9 小时前
人工智能·深度学习·yolo
深度学习_YOLO,卡尔曼滤波和YOLO系列算法是一类典型的one-stage目标检测算法,其利用anchor box将分类与目标定位的回归问题结合起来,从而做到了高效、灵活和泛化性能好,所以在工业界也十分受欢迎.
bst@微胖子9 小时前
pytorch·深度学习·分类
PyTorch深度学习框架之多分类交叉熵实现图像分类适合苹果/华为/小米 3分类手机识别,你可以直接改类别数适配你的任务:Q:SmallPhoneCNN卷积层参数是怎么来的?
独隅10 小时前
人工智能·深度学习·keras
Keras 的主要特点和适用场景Keras 是一个用 Python 编写的高级神经网络 API,最初由 François Chollet 开发,目标是让深度学习变得更加 用户友好、模块化和可扩展。自 TensorFlow 2.0 起,Keras 被正式集成作为其官方高层 API(tf.keras),成为 Google 官方推荐的深度学习开发方式。
郝学胜-神的一滴11 小时前
人工智能·pytorch·python·深度学习·算法·机器学习
自动微分实战:梯度下降的迭代实现与梯度清零核心解析在深度学习的参数优化中,梯度下降是最基础也最核心的算法,而自动微分则是高效计算梯度的关键手段。从手动推导梯度到代码层面的迭代更新,从梯度累加的坑到梯度清零的实操,每一个细节都决定着参数优化的成败。今天我们就从实战角度,拆解基于PyTorch的自动微分实现,手把手搞定梯度下降的完整流程,理解梯度清零的底层逻辑,让参数更新更精准!
HyperAI超神经11 小时前
人工智能·深度学习·学习·机器学习·gpu·tvm·vllm
【TVM教程】理解 Relax 抽象层TVM 现已更新到 0.21.0 版本,TVM 中文文档已经和新版本对齐。Apache TVM 是一个深度的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。
Dev7z12 小时前
人工智能·深度学习·yolo12·产量预测·香梨
基于深度学习的香梨产量预测系统设计与实现(UI界面+数据集+训练代码)摘要:本研究针对香梨产业园果实数量统计和产量预测中人工清点效率低、主观性强、难以满足规模化管理需求等问题,设计并实现了一套基于深度学习的香梨产量预测系统。系统以香梨图像为研究对象,融合目标检测、特征工程与回归分析方法,实现了图像检测、视频检测、实时检测及产量预测等功能。
A尘埃12 小时前
人工智能·深度学习·cnn
深度学习之卷积神经网络CNN(卷积+池化)基础的图像操作CNN图像分类案例模型参数如下:案例增加优化思路根据提供的数据结构,建立CNN模型,识别图片中的猫/狗,计算预测准确率 从网站下载猫/狗图片,进行预测
junior_Xin12 小时前
人工智能·深度学习
机器学习深度学习beginning51.自编码器(Auto-Encoder):不需要标注数据,仅依赖数据本身的结构进行学习,属于自监督学习。自编码器试图学习一个恒等映射:输入 x→ 编码器 → 潜在表示 z→ 解码器 → 输出 x^,并让 x^尽可能接近 x。 核心结构:编码器 + 解码器 目标:最小化重构误差(输入与输出的差异) 变体:Denoising Auto-Encoder(去噪自编码器):需要在输入数据上加入噪声,输出为不加噪声的结果,即对输入X人为加入噪声得到 X',模型学习从 X' 重构出干净的 X
龙文浩_12 小时前
人工智能·pytorch·深度学习·神经网络
AI的jieba分词原理与多模式应用解析AI的jieba分词原理与多模式应用解析
金融小师妹13 小时前
深度学习·svn·逻辑回归·能源
基于AI能源供给网络模型:霍尔木兹海峡扰动下的全球油品风险传导与区域“油荒概率”评估摘要:本文通过构建AI能源供给网络模型,结合霍尔木兹海峡运输扰动、区域进口依赖度、库存动态与贸易重定向能力,对全球能源供应链在极端压力下的传导路径进行分析,重点评估亚洲地区“油荒风险”的结构性分布及其演化机制。
花千树-01013 小时前
人工智能·深度学习·macos·ai·语音识别·ai编程
IndexTTS2 在 macOS 性能最佳设置(M1/M2/M3/M4 全适用)IndexTTS2 本身是为 GPU(NVIDIA CUDA)优化的,而 macOS(Apple Silicon)走的是 Metal GPU 路线。然而 PyTorch 已经对 Metal 优化得相当不错,只要参数设置对了,在 mac 上完全可以跑得很丝滑。