深度学习介绍与环境搭建

深度学习介绍与环境搭建

复制代码
慕课大学人工智能学习笔记,自己学习记录用的。(赋上连接)
https://www.icourse163.org/learn/ZUCC-1206146808?tid=1471365447#/learn/content?type=detail&id=1256424053&cid=1289366515

人工智能、机器学习与深度学习的关系

机器学习
  • 机器学习是人工智能的一个分支,它是实现人工智能的一个核心技术,即以机器学习为手段解决人工智能中的问题
  • 机器学习是通过一些让计算机可以自动学习的算法,并从数据中分析获得规律,然后利用规律对新样本进行预测
  • 机器学习的形式化的描述:对于某类任务T和性能度量P,如果一个计算机程序在T上以P衡量的性能随着经验E而自我完善,那么就称这个计算机程序在从经验E学习。
机器学习的学习形式分类
  • 有监督学习指的是事先要准备好输入与正确输出(区分方法)相配套的训练数据,让计算机进行学习,以便当他被输入某个数据是能够得到正确的输出(区分方法)。
  • 无监督学习的目的是让计算机自己去学习怎样做一些事情,所有数据只有特征没有标记。无监督学习备孕用与仅提供输入用数据、需要计算机自己找出数据内在结构的场合。其目的是让计算机从数据中抽取其中所包含的模式及规则。
  • 半监督学习,二者的中间地带是半监督学习,对于半监督学习,其训练数据一部分有标记,另一部分没有标记,而没有标记数据的数量尝尝极大与有标记数据的数量。它的基本规律是:数据的分部必然不是完全随机的,通过结合有标记数据的局部特征,以及大量没标记数据的整体分部,可以得道比较好的分类结果。
  • 强化学习,是解决计算机从感知到决策控制的问题,从而实现通用人工智能。强化学习是目标导向的,从白纸一张的状态开始,经由许多个步骤来实现某一维度上的目标最大化。最简单的理解是在训练过程中,不断去尝试,错误就惩罚,正确就奖励,由此训练得到的模型在各个状态环境中都最好。对强化学习来说,它虽然没有标记,但有一个延迟奖励与训练相关,通过学习过程中的激励函数获得某种从状态到行动的映射,强化学习强调如何基于环境而行动,以取得最大化的预期利益。强化学习一般在游戏、下期等需要连续决策的领域。
无监督机器学习的典型应用模式
有监督机器学习的典型应用模式


深度学习



全连接网络:指的是Layer1层的节点和后一层全都有连接。

常见的激活函数

深度神经网络

复制代码
如果有层数、节点越多神经网络能力越强。
卷积神经网络CNN
复制代码
卷积神经网络是深度学习中最重要的概念之一
20世纪60年代,Hubel和Wiesel在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现,其独特的网络结构可以有效降低神经网络的复杂性。
1998年,Yann LeCun提出了LeNet神经网络,标志着第一个采用卷积思想的神经网络面世。







深度学习技术存在的问题:

  • 面向任务单一
  • 依赖于大规模有标签数据
  • 几乎是个黑箱模型,可解释性不强
    无监督的深度学习、迁移说戏、深度强化学习和贝叶斯深度学习等受关注
    深度学习具有很好的可推广性和应用性,但不是人工智能的全部,未来人工智能需要有更多类似技术。

深度学习框架


相关推荐
蔗理苦2 小时前
2025-04-05 吴恩达机器学习5——逻辑回归(2):过拟合与正则化
人工智能·python·机器学习·逻辑回归
程序猿阿伟3 小时前
《SQL赋能人工智能:解锁特征工程的隐秘力量》
数据库·人工智能·sql
csssnxy3 小时前
叁仟数智指路机器人是否支持远程监控和管理?
大数据·人工智能
车斗4 小时前
win10 笔记本电脑安装 pytorch+cuda+gpu 大模型开发环境过程记录
人工智能·pytorch·电脑
KY_chenzhao4 小时前
数据驱动防灾:AI 大模型在地质灾害应急决策中的关键作用。基于DeepSeek/ChatGPT的AI智能体开发
人工智能·chatgpt·智能体·deepseek·本地化部署
大多_C4 小时前
量化方法分类
人工智能·分类·数据挖掘
www_pp_4 小时前
# 基于 OpenCV 的人脸识别实战:从基础到进阶
人工智能·opencv·计算机视觉
三月七(爱看动漫的程序员)5 小时前
LLM面试题六
数据库·人工智能·gpt·语言模型·自然语言处理·llama·milvus
蹦蹦跳跳真可爱5896 小时前
Python----计算机视觉处理(Opencv:道路检测之车道线拟合)
开发语言·人工智能·python·opencv·计算机视觉
deephub6 小时前
计算加速技术比较分析:GPU、FPGA、ASIC、TPU与NPU的技术特性、应用场景及产业生态
人工智能·深度学习·gpu·计算加速