6.深度学习入门:神经网络是如何“思考”的?

  1. 从神经元到神经网络
    生物灵感:大脑有约860亿个神经元,每个接收信号、处理、然后传递给下一个。
    人工神经元:数学函数 y = f(w1x1 + w2x2 + ... + b)

🧠 单个神经元就像一个小决策器:

输入:x1, x2(比如温度、湿度)

权重:w1, w2(重要性)

偏置:b(基础阈值)

激活函数:f(决定是否"兴奋")

  1. 最简单的神经网络:感知机

    只能处理线性可分问题(如AND、OR)。

    要解决异或(XOR)问题,需要多层网络。

  2. 多层神经网络(MLP)

    输入层:接收原始数据(图片像素、房价特征)

隐藏层:提取抽象特征(可以有很多层→"深度"学习)

输出层:给出最终结果(分类概率、回归值)

📐 前向传播:数据从左到右流过网络,计算出预测值。

  1. 神经网络怎么学?------反向传播
    前向:计算预测值

损失:比较预测与真实值(如交叉熵损失)

反向:从输出层往输入层,计算每个权重的梯度(用链式法则)

更新:梯度下降法调整权重

重复多轮(epoch)

🧮 直观理解:

误差像涟漪一样从输出层向后传播,告诉每一层的神经元"你该为错误承担多少责任",然后它们修正自己的权重。

  1. 用Keras搭一个3层神经网络(10行代码)
python 复制代码
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense

model = Sequential([
    Dense(64, activation='relu', input_shape=(20,)),  # 隐藏层1
    Dense(64, activation='relu'),                     # 隐藏层2
    Dense(1, activation='sigmoid')                   # 输出层(二分类)
])
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
model.fit(X_train, y_train, epochs=10, batch_size=32)
  1. 深度学习的"深"到底有多深?
    浅层网络:1-2个隐藏层(1990s)

深度网络:5-150层(2010s)

超深网络:如ResNet有1000+层(通过跳跃连接实现)

  1. 为什么深度学习现在这么火?
    数据爆炸:互联网每天产生海量标注数据

算力飞跃:GPU让矩阵运算快几千倍

算法突破:ReLU激活函数、Dropout、BatchNorm等

小结

神经网络通过多层非线性变换,可以拟合任意复杂函数。它是现代计算机视觉、自然语言处理的基石。下一篇我们将进入"计算机视觉",看看卷积神经网络如何看懂图像。

下一篇预告:《计算机视觉:让AI拥有一双"火眼金睛"》

相关推荐
AC赳赳老秦2 小时前
OpenClaw进阶技巧:批量修改文件内容、替换关键词,解放双手
java·linux·人工智能·python·算法·测试用例·openclaw
鹓于2 小时前
备忘录:RAG(检索增强生成框架)
人工智能
Java小白笔记2 小时前
OpenClaw 实战方法论
java·开发语言·人工智能·ai·全文检索·ai编程·ai写作
Tigerbot2 小时前
虎博科技CEO卢鑫:GEO方法论提出者,AI Marketing 与 AI GEO专家
大数据·人工智能·科技
光锥智能2 小时前
北京车展看点:斑马用双引擎定义下一代座舱
人工智能
IT_陈寒2 小时前
Vue的v-for里用index当key,我被自己坑惨了
前端·人工智能·后端
mit6.8242 小时前
评价GPT-5.5
人工智能
沅柠-AI营销2 小时前
AI 模型迭代洗牌:DeepSeek V4 重构 GEO 逻辑,企业该如何调整
人工智能·重构·知识图谱·流量运营·品牌运营·geo优化·deepseek v4