ML:2-2-1 Tensorflow

文章目录

  • [1. Tensorflow实现](#1. Tensorflow实现)
  • [2. 模型训练细节](#2. 模型训练细节)
    • [2.1 定义模型f(x)](#2.1 定义模型f(x))
    • [2.2 找到loss and cost funciton](#2.2 找到loss and cost funciton)
    • [2.3 Gradient descent](#2.3 Gradient descent)

【吴恩达p60-61】

1. Tensorflow实现

  1. 继续看手写数字识别的例题
  2. 第一步,我们上周学习了。
  3. 第二步,让Tensorflow去编译模型。最重要的一步是通过指定你想使用的loss函数。(这里我们会用BinaryCrossentropy)
  4. 第三步,使用fit函数告诉Tensorflow将在第一步中指定的model,和第二步中指定的cost function拟合到XY。(第3步是用来训练模型的)
  5. epoch 是一个专业名词,指定gradient descent步骤的数量

2. 模型训练细节

【了解Tensorflow训练模型的代码细节。】

  1. 训练模型的三个步骤:
    1. 定义模型f(x)
    2. 找出loss + cost function。(loss是单个样本的误差,cost是整体的误差和)
    3. 训练数据,最小化cost function。(ex. 使用gradient descent)
  2. 使用这3步训练neural network的模型:
    1. 定义model的式子。
    2. compile模型,并且告诉它你想使用的loss function。(这里的代码表示,我们将使用Binary Cross Entropy作为loss function。后续通过对其取平均值,可以得到整个neural network的cost function。)
    3. 调用函数,去最小化cost function。

2.1 定义模型f(x)

  1. a3 = f(x)

2.2 找到loss and cost funciton

  1. 必须指定loss function,这也会用来定义cost function。
  2. L(f(x), y)函数里y是truth label(target label
  3. f(x)是neural network的output。
  4. Tensorflow知道你要最小化cost是所有training example loss的平均值。
  5. 如果项训练的是regression的模型,你也可以告诉Tensorflow使用不同的loss function编译模型。(比如,要去最小化mean squared error,就可以让loss = MeanSquaredError())
  6. 神经网络里的W,B都是2维的数据

2.3 Gradient descent

  1. 需要分别对每一层每一神经元,更新它们的w,j。
  2. backpropagation反向传播:用来计算neural network里偏导项的一种算法。(Tensorflow可以做到:model.fit(x,y, epochs = 100),epochs表示,迭代100次。)
  3. 事实上,Tensorflow可以使用另一种比gradient descent更快的算法来做。
相关推荐
aircrushin2 小时前
从春晚看分布式实时协同算法与灵巧手工程实现
人工智能·机器人
恋猫de小郭2 小时前
Apple 的 ANE 被挖掘,AI 硬件公开,宣传的 38 TOPS 居然是"数字游戏"?
前端·人工智能·ios
银河系搭车客指南2 小时前
AI Agent 的失忆症:我是怎么给它装上"第二个大脑"的
人工智能
张拭心2 小时前
春节后,有些公司明确要求 AI 经验了
android·前端·人工智能
我的username2 小时前
极致简单的openclaw安装教程
人工智能
小锋java12342 小时前
【技术专题】嵌入模型与Chroma向量数据库 - Chroma 集合操作
人工智能
七月丶2 小时前
别再手动凑 PR 了:这个 AI Skill 会按仓库习惯自动建分支、拆提交、提 PR
人工智能·设计模式·程序员
AI攻城狮3 小时前
用 Playwright 实现博客一键发布到稀土掘金
python·自动化运维
用户5191495848453 小时前
CVE-2024-10793 WordPress插件权限提升漏洞利用演示
人工智能·aigc