深度学习

XingshiXu1 小时前
人工智能·python·深度学习·目标检测·机器学习·计算机视觉·目标跟踪
【NWAFU×KUL】不打扰,也能看懂一头牛:非接触式技术正在改变精准畜牧在大型牧场里,真正困难的事情,往往不是“有没有牛”,而是“能不能持续、准确地知道每一头牛正在发生什么”。
β添砖java2 小时前
网络·人工智能·深度学习
深度学习(21)使用块的网络VGG经测试后,发现3*3的效果比5*5的效果要好一、VGG块(核心思想)👉 一个 VGG block = 多个卷积层 + 1个池化层
多年小白3 小时前
大数据·人工智能·深度学习·microsoft·机器学习·ai·自动驾驶
2026年5月5日英伟达股价 4 月 27 日单日暴涨 4%,收于每股 216.61 美元,总市值达到 5.26 万亿美元,把第二名谷歌母公司 Alphabet(4.24 万亿)远远甩在身后。四大超级云厂商(Meta、谷歌、微软、亚马逊)今年合计砸 7250 亿美元建 AI 基础设施,英伟达占 AI 加速芯片市场约 90% 的份额,这股热钱直接往英伟达口袋里流。
Jinkxs3 小时前
人工智能·深度学习·大模型·atomgit·glm-5
深度评测 GLM-5:AtomGit 首发模型的代码生成实战体验首发模型体验链接:https://atomgit.com/GitCode/0daymodel GLM-5模型在线体验连接:https://ai.atomgit.com/zai-org/GLM-5/model-inference?utm_source=tiezi 评测模型:zai-org/GLM-5 评测时间:2026年2月24日
python零基础入门小白5 小时前
人工智能·深度学习·学习·语言模型·大模型·transformer·产品经理
Transformer、Token、RAG全解析,一篇读懂大模型核心机制!本文以通俗易懂的方式,梳理了AI领域的关键术语,包括LLM、Transformer、Token、Embedding等,并深入探讨了它们的内在联系和应用场景。文章从模型构建、训练过程、应用方法等多个角度,全面解析了大模型的核心机制,帮助读者建立起对AI技术的整体认知框架。同时,文章还介绍了RAG、Agent等前沿技术,以及推理、部署和多模态等工程化问题,为读者提供了实用的技术指导。
hhzz5 小时前
深度学习·yolo·计算机视觉
(深度学习/计算机视觉)手把手教你从零部署YOLOv8目标检测算法-----YOLOV8原理介绍(1/5)⚡⚡⚡ 欢迎预览,批评指正⚡⚡⚡目标检测(Object Detection)是计算机视觉的核心任务之一,同时解决两个问题:
AI医影跨模态组学5 小时前
人工智能·深度学习·医学·医学影像·影像组学
(综述)J Transl Med 浙江大学医学院附属第二医院等团队:放射组学在胶质母细胞瘤复发中的应用:预测、定位及与治疗相关效应鉴别的进展01文献学习今天分享的文献是由浙江大学医学院附属第二医院等团队于2026年3月在《Journal of Translational Medicine》(中科院2区,IF=7.5)上发表的研究“Radiomics in glioblastoma recurrence: advances in prediction, localization, and differentiation from treatment-related effects”即放射组学在胶质母细胞瘤复发中的应用:复发预测、定位及与治疗相关
源于花海6 小时前
深度学习·机器学习·自训练
模型独立的学习方式——自训练自训练(Self-Training),也叫自训练(Self-Teaching)或自举法(Bootstrapping),是一种非常简单的半监督学习算法[Scudder, 1965, Yarowsky, 1995]。
隐层漫游者7 小时前
深度学习
2026深度学习硬核通关:从自动微分Autograd到激活函数全景图解,一文看懂神经网络的“灵魂”与“骨架”大家好,我是你们的技术向导。👋在深度学习的征途中,我们往往只关注模型的预测结果,却忽略了模型是如何“思考”的。今天,我们将穿越框架的表象,深入PyTorch的底层,结合自动微分机制、激活函数的数学之美以及参数初始化的玄学,为你还原一个完整的神经网络训练图景。
郝学胜-神的一滴7 小时前
人工智能·pytorch·python·深度学习·机器学习·数据挖掘
深度学习损失函数:从原理到实战之 Smooth L1 Loss在深度学习的模型训练中,损失函数就像是模型的 “导航仪”,决定了参数更新的方向与幅度。经典的 L1(MAE)与 L2(MSE)损失各有优劣,却在实际场景中存在难以规避的缺陷。而 Smooth L1 Loss 作为二者的 “融合升级版”,完美平衡了稳定性与收敛性,成为回归任务的首选损失函数✨,更是深度学习领域中“扬长避短”的经典设计典范!
ForDreamMusk7 小时前
人工智能·深度学习
卷积层卷积层由卷积运算和激活函数组成。卷积运算基于一个局部的线性模型,这个线性模型会重复地应用在图像的各个不同的位置上。卷积运算的结果仍然是一种类似图像的数据,只不过每个位置上的数值代表的是一种局部特征。
高洁018 小时前
深度学习·机器学习·数据挖掘·transformer·知识图谱
AI项目管理实战:从开发到交付的全流程管控AI项目管理实战:从开发到交付的全流程管控一、 启动阶段:先对齐“什么是成功” 二、 开发阶段:用小闭环控制不确定性 三、 集成与测试阶段:别把模型当黑盒丢过去 四、 部署与上线阶段:灰度放量,留好回滚绳 五、 交付与迭代阶段:模型不是一次性产品
joshchen2158 小时前
人工智能·深度学习·算法·机器学习·强化学习
强化学习基础(赵世钰)第一章首先通过示例介绍强化学习(RL)的基本概念。然后在马尔可夫决策过程的框架下对这些概念进行形式化。网格单元:包含可通过单元格、禁止单元格、目标单元格以及边界。
独隅8 小时前
人工智能·深度学习·keras
Anaconda 配置 Keras 环境的详细流程指南本文详细讲解在Anaconda中配置Keras深度学习环境的完整流程。内容涵盖Keras与TensorFlow的演进关系、系统兼容性要求、版本选择建议,以及CPU/GPU版本的安装方法。重点包括:创建conda隔离环境、安装Keras核心及多后端支持(TensorFlow/JAX/PyTorch)、GPU环境配置验证。针对最新Keras 3.x版本,提供了多后端配置方案和最佳实践,帮助用户根据项目需求选择合适配置。文中包含详细命令行操作和Python验证代码,确保环境正确搭建。特别说明不同后端适用场景,并
AIGC安琪8 小时前
人工智能·深度学习·ai·语言模型·程序员·大模型·transformer
Transformer 和 LLM 到底是什么关系?现在大家聊大模型,总容易把两个词弄混:Transformer 和 LLM。有人觉得,Transformer 不就是大模型嘛。
源于花海9 小时前
深度学习·机器学习·协同训练
模型独立的学习方式——协同训练协同训练(Co-Training)是自训练的一种改进方法,通过两个基于不同视角(view)的分类器来相互促进。很多数据都有相对独立的不同视角。比如互联网上的每个网页都由两种视角组成:文字内容(text)和指向其它网页的链接(hyperlink)。如果要确定一个网页的类别,可以根据文字内容来判断,也可根据网页之间的链接关系来判断。
ZhengEnCi9 小时前
人工智能·深度学习·神经网络
01d-前馈神经网络代码实现 💻本文档基于 PyTorch 从零实现前馈神经网络,涵盖感知机的代码实现与局限性验证、前馈神经网络解决异或(XOR)问题的完整代码及逐行解析、激活函数的可视化对比、训练循环的逐步拆解,以及一个完整可运行的综合示例。通过理论与实践相结合的方式,帮助读者深入理解前馈神经网络的代码实现细节 🛠️
雷帝木木9 小时前
人工智能·python·深度学习·机器学习
Python 中的配置文件管理:从基础到高级应用配置文件管理是软件开发中的重要组成部分,它允许应用程序在不修改代码的情况下调整行为。在 Python 中,有多种方法可以处理配置文件,从简单的 INI 文件到复杂的 YAML、JSON 格式。本文将深入探讨 Python 中配置文件管理的各种方法,通过实验数据验证其效果,并提供实际项目中的最佳实践。
雷帝木木9 小时前
人工智能·python·深度学习·机器学习
Python元编程高级技巧:深入理解代码生成与动态行为Python元编程是一种强大的编程范式,它允许我们编写能够操作代码本身的代码。通过元编程,我们可以:在大型项目中,元编程可以显著减少重复代码,提高代码的可维护性和扩展性。
一切皆是因缘际会18 小时前
人工智能·深度学习·算法·架构
从概率拟合到内生心智:2026 下一代 AI 架构演进与落地实践标签:人工智能、机器学习、大模型、深度学习、系统架构 摘要 2026 年,大模型行业正式告别参数竞赛,进入效率优先、能力对齐、工程落地的高质量发展周期。当前主流大模型依托概率生成与文本拟合,虽在对话、创作、代码辅助等场景广泛落地,但仍面临幻觉频发、记忆缺失、无自主决策、算力成本高企、安全不可控等底层瓶颈。本文从工程实践视角,拆解传统大模型的原生缺陷,提出以记忆博弈、内稳态、权重迭代、体感驱动为核心的内生心智架构,对比行业主流优化方案,阐述下一代 AI 从 “工具智能” 走向 “生命智能” 的演进路径,并给