深度学习

麻瓜生活睁不开眼1 小时前
android·java·深度学习
Android 14 开机自启动第三方 APK 全流程踩坑与最终解决方案(含 RescueParty 避坑)在 Android 14.0 设备定制中,遇到一个开机自启动第三方 APK的需求:设备开机后自动拉起客制化 APP,且不能因为切换语言、修改字体大小、更换默认壁纸等系统设置而重复启动。通过在launcher中定义自启动app的方法基本上都会遇到修改系统设置时,再次去换起第三方apk的bug
AI人工智能+1 小时前
深度学习·ocr·食品经营许可证识别
CNN+CRNN+NER:如何实现食品经营许可证秒级结构化信息提取?在食品流通与餐饮服务行业,食品经营许可证是企业合法经营的重要凭证。无论是线上外卖平台对入驻商家的资质审核,还是线下市场监管部门的日常巡检,都需要快速、准确地核验许可证信息。传统的人工录入方式不仅效率低下,且容易出错,难以满足大规模、高频次的审核需求。针对这一痛点,一种基于深度学习的食品经营许可证识别技术应运而生,以高精度OCR为核心,实现秒级关键信息提取,为食品安全监管和商业合规化提供了智能化的解决方案。
A懿轩A2 小时前
人工智能·windows·python·深度学习·tensorflow
【2026 最新】TensorFlow 安装配置详细指南 同时讲解安装CPU和GPU版本 小白也能轻松上手!逐步带图超详细展示(Windows 版)适合人群:零基础、刚接触深度学习的新手在人工智能迅猛发展的今天,深度学习框架已成为连接算法理论与实际应用的关键桥梁。TensorFlow,由 Google Brain 团队于 2015 年开源,凭借其强大的计算能力、灵活的架构设计和广泛的社区支持,迅速成长为全球最受欢迎的机器学习框架之一。
wearegogog1232 小时前
人工智能·深度学习·神经网络
基于神经网络、强化学习、模糊逻辑和小波相结合的混合方法控制欠驱动系统MATLAB实现展示了如何结合神经网络(NN)、强化学习(RL)、模糊逻辑(FL)和小波变换(WT)来控制欠驱动系统(以倒立摆小车系统为例)。
陈天伟教授2 小时前
人工智能·深度学习·bert
人工智能应用- 预测化学反应:08. 基于 BERT 的化学反应分类将化学反应方程式序列化为SMILES 格式后,我们可以像处理文本字符串一样处理化学反应数据。图 展示了 BERT 模型在化学反应分类中的系统结构。整个流程如下:
ECHO飞跃 0122 小时前
人工智能·深度学习·unity·llama
Unity2019 本地推理 通义千问0.5-1.5B微调导入使用工具Uniy 2019python3.8python一堆环境cmakeVisual Studio 2022
有Li2 小时前
人工智能·深度学习·文献·医学生
AtlasMorph:学习脑部MRI的条件可变形模板/文献速递-基于深度学习的图像配准与疾病诊断2026.2.25本文提出了AtlasMorph框架,利用卷积配准神经网络学习生成基于年龄、性别等个体属性的条件可变形模板及其解剖标签图,显著提高了配准精度,并能更准确地捕捉脑部MRI的群体趋势。
longvoyage3 小时前
人工智能·python·深度学习
MindSpore社区活动:零样本图像分割推理任务SAM是由Meta AI于2023年发布的一种革命性图像分割模型,被认为是计算机视觉领域的首个基础模型(Foundation Model)。该模型的核心目标是实现"可提示的分割"(Promptable Segmentation),即通过用户提供的各种提示(如点、框、文本等)来分割图像中的任意目标 。 SAM具备强大的零样本泛化能力,无需针对特定任务进行再训练,即可适应新的图像分布和任务。
Emotional。3 小时前
人工智能·深度学习·机器学习·缓存·性能优化
AI Agent 性能优化和成本控制部署上线只是开始,如何降低成本、提高性能,才是长期运营的关键。这篇文章将分享实战经验。前置知识: 需要先阅读前 3 篇
赋创小助手3 小时前
运维·服务器·人工智能·深度学习·自然语言处理·硬件架构
服务器主板为何不再采用ATX?以超微X14DBM-AP 为例解析在很多人的印象中,主板形态基本都是ATX、EATX 这些标准规格,拥有整齐排列的 PCIe 插槽和标准 24Pin 供电接口。但在服务器领域,这套规则早就被打破了。
硅谷秋水3 小时前
深度学习·机器学习·计算机视觉·语言模型·机器人
从机制角度看视频生成作为世界模型:状态与动态26年1月来自港科大(广州)、同济大学和快手公司的论文“A Mechanistic View on Video Generation as World Models: State and Dynamics”。
kebijuelun3 小时前
人工智能·深度学习·机器学习
STAPO:通过“静音”极少数伪噪声 Token,稳定 LLM 强化学习这篇论文的核心观点很直接:LLM 在 RL 训练时不稳定的“罪魁祸首”,往往是 极少数 (约 0.01%)低概率、低熵但被错误奖励强化的 token。把它们“静音”,训练就稳了,性能也更高。
weixin_贾4 小时前
pytorch·深度学习·机器学习
深度学习基础理论与 PyTorch 实战 —— 从传统机器学习到前沿模型全攻略系统地学习深度学习的基础理论知识及对应的Pytorch代码实现方法,掌握深度学习的基础知识,与经典机器学习算法的区别与联系,以及最新的迁移学习、循环神经网络、长短时记忆神经网络、时间卷积网络、对抗生成网络、Yolo目标检测算法、自编码器等算法的原理及其Pytorch编程实现方法。
yunhuibin15 小时前
人工智能·python·深度学习·神经网络·学习
GoogLeNet学习因为GoogLeNet网络结构借鉴了NiN网络,所以前提知识储备还得学习下NiN网络。 GoogLeNet网络在2014年的ImageNet图像识别挑战赛中获得冠军。 GoogLeNet又叫inception网络。本篇学习的是inception v1网络结构。
Ethan Hunt丶16 小时前
人工智能·深度学习·算法·transformer·脑机接口
MSVTNet: 基于多尺度视觉Transformer的运动想象EEG分类模型本文围绕脑机接口(BCI)中的核心问题——运动想象(MI)脑电(EEG)解码展开。由于 EEG 信号信噪比低、非平稳性强、个体差异明显,同时又包含复杂的多尺度时空特征,使得高精度解码始终具有挑战性。 传统方法依赖神经生理先验与手工特征设计,泛化能力有限;深度学习方法虽然提升了自动特征学习能力,但仍存在不足:CNN 更擅长局部特征提取,却难以建模长时依赖;Transformer 具备全局建模能力,却往往忽略不同时间尺度之间的特征交互。 为此,本文提出 MSVTNet(Multi-Scale Vision T
金融小师妹17 小时前
大数据·人工智能·深度学习·机器学习
3月美联储货币政策决策的动态博弈——基于就业市场数据与通胀预测的AI模型分析摘要:本文通过引入AI数据驱动分析框架,结合机器学习算法对历史经济数据的模式识别与预测能力,分析美联储理事沃勒关于3月美联储决策的立场转变及其与就业市场数据、通胀因素之间的复杂关联。
冰西瓜60017 小时前
人工智能·深度学习·cnn
深度学习的数学原理(十三)—— CNN实战在前两篇中,我们已完成CNN的底层原理铺垫——从二维卷积的数学定义、工程实现的互相关操作,到卷积层、池化层的反向传播梯度推导,再到PyTorch自动求导的验证,彻底摸清了CNN“前向计算特征、反向更新参数”的核心逻辑。本篇会先基于PyTorch实现LeNet风格的完整CNN,完成MNIST手写数字分类任务;再从数学本质剖析CNN的平移不变性、尺度不变性,解释其适配图像任务的核心原因;随后构建结构匹配的MLP作为对比组,量化对比两者的训练效果、参数数量,直观表现出CNN的优势。
AI浩17 小时前
人工智能·深度学习·transformer
ViT-5:面向2020年代中期的视觉Transformer作者: Feng Wang, Sucheng Ren, Tiezheng Zhang, Predrag Neskovic, Anand Bhattad, Cihang Xie, Alan Yuille 论文链接:https://arxiv.org/pdf/2602.08071
大连好光景17 小时前
pytorch·深度学习·学习
PyTorch深度学习----优化器在深度学习中,优化器是训练模型的重要组件,用于更新模型参数以最小化损失函数。优化是一个尝试为深度学习模型找到最佳参数集的过程。优化器生成新的参数值,并使用某些标准来评估它们以确定最佳选项。作为神经网络架构的重要组成部分,优化器有助于确定能够产生预期输出的最佳权重、偏差或其他超参数。
relis17 小时前
人工智能·深度学习
深度学习模型 CPU 移植实战:将 MinivLLM 从 GPU 迁移到 CPU 环境MinivLLM 是一个轻量级的 vLLM 实现,专为 GPU 环境设计,使用了大量 GPU 优化技术: