深度学习——简介

一、概念

深度学习是机器学习算法的分支;人工神经网络为结果,实现自动提取数据特征的算法。

所有深度学习都是机器学习,但并非所有机器学习都是深度学习。

在深度学习的过程中,每一层神经网络都对输入数据进行处理,从而学习到数据中的特征和模式。

深度学习的关键之一是"反向传播"算法,它通过计算损失函数(即实际输出与期望输出之间的差异)并将这种误差反馈回网络的每一层,来调整每层的权重。

深度学习的一个重要的概念是"特征学习",这意味着深度学习模型能够自动发现和利用数据中的有用特征,而无需人工介入。

深度学习的成功依赖于大量的数据和强大的计算能力。

二、深度学习的优缺点

优点:

1.自动提取特征:省去人工设计特征,适合图像、语音等复杂数据。

2.高精度:在大数据任务(如CV、NLP)中表现优异。

3.端到端学习:直接从数据到结果,简化流程。

4.适应性强:新模型(如Transformer)不断优化性能。

缺点:

1.依赖大数据:小样本场景容易过拟合。

2.计算成本高:训练需要GPU/TPU,部署难。

3.黑盒模型:决策难解释,影响可信度。

4.调参复杂:超参数优化依赖经验。

5.安全风险:对抗攻击,数据偏见问题突出。

适用于大数据、高复杂度任务;不适用小数据、需高解释性或低功耗设备。

三、深度学习发展史(部分)

1943: 沃尔特·皮茨(Walter Pitts)和沃伦·麦卡洛克(Warren McCulloch)提出了McCulloch-Pitts神经元模型,这是人工神经网络领域的开创性工作之一。

1956: 美国达特茅斯学院的约翰·麦卡锡、马文·闵斯基、克劳德·香农和纳撒尼尔·罗切斯特等人发起达特茅斯会议,首次提出了"人工智能"这一术语,并确立了研究目标和方向。

1957:弗兰克·罗森布拉特(Frank Rosenblatt)提出单层感知器概念,使用随机梯度下降(的雏形)进行权重更新。

1960年代末:出现了多层感知器(MLP),输入层、隐藏层、输出层的结构被提出,反向传播算法(BP)尚未成熟(直到1986年才由Rumelhart等人明确推广)。

1986:David Rumelhart等人发表了关于反向传播(BackPropagation, BP)算法的研究成果,使得多层神经网络能够通过梯度下降优化参数,解决复杂的非线性问题。

2012:亚历克斯·克里泽夫斯基(Alex Krizhevsky)等人设计的卷积神经网络(CNN)AlexNet模型在ImageNet图像识别挑战赛中取得巨大成功。大规模图像识别任务中的强大能力,引爆了深度学习革命。

2022 年: chatGPT的出现,进入到大模型AIGC发展的阶段。

四、算法/模型

包含:ANN人工神经网络、CNN 卷积神经网络、RNN 循环神经网络、transformer、生成对抗网络、BERT、GPT......

五、应用场景

自然语言处理 nlp:聊天机器人、语音翻译......

计算机视觉 CV:图像识别、目标检测......

推荐系统:电商推荐、电影/音乐/文章/推荐......

多模态大模型......

相关推荐
小沈熬夜秃头中୧⍤⃝12 分钟前
IOPaint 远程修图:cpolar 内网穿透服务实现跨设备图片编辑
人工智能
CoovallyAIHub17 分钟前
为什么85%的企业AI项目都失败了?
深度学习·算法·计算机视觉
Listennnn17 分钟前
ScanNet项目介绍
人工智能
陈哥聊测试18 分钟前
Vibe Coding火了,人人都是程序员?
人工智能·程序员·产品
Jinkxs26 分钟前
AI重塑金融风控:从传统规则到智能模型的信贷审批转型案例
大数据·人工智能
cwn_1 小时前
牛津大学xDeepMind 自然语言处理(1)
人工智能·深度学习·机器学习·自然语言处理
前端双越老师1 小时前
【干货】使用 langChian.js 实现掘金“智能总结” 考虑大文档和 token 限制
人工智能·langchain·node.js
leiya_1631 小时前
私有化部署本地大模型+function Calling+本地数据库
人工智能·ai·大模型
Dajiaonew2 小时前
Spring AI RAG 检索增强 应用
java·人工智能·spring·ai·langchain
z千鑫2 小时前
【OpenAI】 GPT-4o-realtime-preview 多模态、实时交互模型介绍+API的使用教程!
人工智能·gpt·语言模型·aigc