深度神经网络为何成功?其中的过程、思想和关键主张选择

LeNet(1989)在小数据集上取得了很好的效果,但是在更大、更真实地数据集上训练卷积神经网络地性能和可行性还有待研究。

与神经网络竞争的是传统机器学习方法,比如SVM(支持向量机)。这个阶段性能比神经网络方法好。

机器学习研究人员的观点:相信机器学习既重要又美丽,用优雅的理论证明各种模型的性质。

计算机视觉的研究人员的观点:推动领域进步的是数据特征,而不是学习算法。他们相信,从对最终模型精度的影响来说,更大或更干净的数据集或是稍加改进的特征提取方法,比任何学习算法带来的进步大的多。

另一种观点:观察并设计图像特征的提取方法。主要工作是设计一套新的特征函数,改进结果并撰写论文,代表性成果有:SIFT、SURF、HOG等。

还有一组研究人员(Yann LeCun, Geoff Hinton, Yoshua Bengio, Andrew Ng, Shun-ichi Amari, and Juergen Schmidhuber)的观点:认为特征本身应该被学习。有趣的是,在AlexNet网络的底层,模型学习到了一些类似于传统滤波器的特征提取器。

最终的突破出现在2012年,成功可以归因于两个关键的因素:数据和硬件。2009年,ImageNet有100万个样本,1000个不同类别的对象。硬件上GPU的发展,庞大的GPU数量远远快于CPU的计算能力,GPU的带宽比CPU快10倍。

在这个思路上一路狂奔,出现了ChatGPT(2022),数据量超过万亿(数据),上万的GPU并行计算(算力),千亿甚至万亿参数的神经网络(算法),在今天,处于全球领先地位(the state of art),具有强大的引领效应。

在这个思路上,产生了transformer、bert等等优秀的深度学习模型类,ChatGPT则是一个现象级应用,吸引了大量关注,就如同阿尔法狗(AlphaGo)一样,2017年在围棋上打败柯洁。

相关推荐
是店小二呀几秒前
利用JiuwenSwarm创建活动规划团队,一句话落地利用JiuwenSwarm创建活动规划团队,一句话落地活动实战
人工智能·prometheus
Finger#0000FF2 分钟前
从零上手VibeCoding(ClaudeCode+DeepSeek V4.Pro)
java·人工智能·ai编程·vibe coding·claudecode
Giorno37210 分钟前
用 LLM 做数据提取踩了 6 个坑,我加了 6 层防御——15000 张发票的实战总结
人工智能
沉浸式学习ing11 分钟前
播客和视频怎么变成知识库里的笔记?音视频转结构化笔记完整方案
人工智能·笔记·gpt·学习·ai·音视频·notion
Soari15 分钟前
终结 Vibe Coding(Harness Engineering)!深度拆解 ralph:以交付所有 PRD 为生命周期的自主 AI Agent 闭环
自动化测试·人工智能·软件工程·aiagent·ralph·harnesseng·prd驱动
yezannnnnn16 分钟前
ToAgent:下一个被颠覆的不是某个行业,是"App"这个概念本身
人工智能
Marvel__Dead20 分钟前
微调 Gemma 4 识别腾讯天御全系列验证码【解决方案-一个模型识别 滑块|文字点选|图标点选|空间点选】
人工智能·爬虫·python·验证码识别·ai 大模型
Agent手记20 分钟前
成品发货全流程自动化,落地实操与错发漏发规避方案 | 2026企业级Agent端到端落地指南
运维·人工智能·ai·自动化
元让_vincent23 分钟前
论文Review SLAM II-NVM | RA-L 2025 | 面向室内双面墙问题的法向量辅助建图方法
人工智能·机器人·自动驾驶·法向量·激光slam·室内
一个帅气昵称啊24 分钟前
.Net基于NetCoreKevin框架 AI 与 Hangfire 集成:实现AI智能自动任务调度
人工智能·.net·hangfire