深度学习3(向量化编程+ python中实现逻辑回归)

目录

python中向量化编程

[常用操作(设:a=[1,2] , b=[3,4])](#常用操作(设:a=[1,2] , b=[3,4]))

python中实现逻辑回归

伪代码

代码实现


python中向量化编程

向量化编程(Vectorized Programming)是一种利用数组或矩阵运算替代显式循环 的高效编程范式,尤其在科学计算和机器学习中至关重要。而向量化编程在python中依靠numpy包实现。

一般引入格式为:import numpy as np

常用操作(设:a=[1,2] , b=[3,4])

函数 说明 示例
np.add() 逐元素加法 a + b[1+3, 2+4]
np.subtract() 逐元素减法 a - b[1-3, 2-4]
np.multiply() 逐元素乘法 a * b[1*3, 2*4]
np.divide() 逐元素除法 a / b[1/3, 2/4]
np.power() 幂运算 a**2[1, 4]
np.exp() 指数运算 e^a
np.log 对数计算 log(默认ln)

python中实现逻辑回归

伪代码

代码实现

python 复制代码
import numpy as np

# 初始化
num_iterations = 1000
learning_rate = 0.5
X = np.array([
    [1.2, 0.5],  # 样本1
    [-0.3, 1.8],  # 样本2
    [0.7, -1.1]  # 样本3
])
Y = np.array([[1, 0, 1]])  # 改为行向量以便计算
W = np.zeros((2, 1))  # 权重矩阵
b = 0.0  # 偏置项
costs = []  # 存储损失值历史


def sigmoid(x):
    """Sigmoid激活函数"""
    return 1 / (1 + np.exp(-x))


def propagate(W, b, X, Y):
    """
    前向传播和反向传播
    参数:
        W: 权重 (2,1)
        b: 偏置 (标量)
        X: 输入数据 (3,2)
        Y: 真实标签 (1,3)
    返回:
        grads: 包含梯度的字典
        cost: 当前损失值
    """
    m = X.shape[0]  # 样本数量

    # 前向传播
    Z = np.dot(X, W) + b  # (3,1)
    A = sigmoid(Z)  # (3,1)

    # 计算损失(添加极小值防止log(0))
    epsilon = 1e-5
    cost = -(1 / m) * np.sum(Y * np.log(A.T + epsilon) + (1 - Y) * np.log(1 - A.T + epsilon))

    # 反向传播
    dZ = A - Y.T  # (3,1)
    dW = (1 / m) * np.dot(X.T, dZ)  # (2,1)
    db = (1 / m) * np.sum(dZ)

    grads = {"dW": dW, "db": db}
    return grads, cost


def optimize(W, b, X, Y, num_iterations, learning_rate):
    """
    梯度下降优化
    参数:
        W, b: 初始参数
        X, Y: 训练数据和标签
        num_iterations: 迭代次数
        learning_rate: 学习率
    返回:
        params: 优化后的参数
        grads: 最终梯度
        costs: 损失历史
    """
    costs = []

    for i in range(num_iterations):
        # 计算梯度和损失
        grads, cost = propagate(W, b, X, Y)

        # 获取梯度
        dW = grads["dW"]
        db = grads["db"]

        # 更新参数
        W = W - learning_rate * dW
        b = b - learning_rate * db

        # 记录损失
        if i % 100 == 0:
            costs.append(cost)
            print(f"迭代次数 {i}: 损失值 = {cost:.6f}")

    params = {"W": W, "b": b}
    grads = {"dW": dW, "db": db}
    return params, grads, costs


def predict(W, b, X):
    """
    使用训练好的参数预测
    参数:
        W, b: 训练好的参数
        X: 输入数据
    返回:
        Y_prediction: 预测结果 (0或1)
    """
    m = X.shape[0]
    Y_prediction = np.zeros((1, m))

    A = sigmoid(np.dot(X, W) + b)

    for i in range(A.shape[0]):
        Y_prediction[0, i] = 1 if A[i] > 0.5 else 0

    return Y_prediction


if __name__ == '__main__':
    # 训练模型
    params, grads, costs = optimize(W, b, X, Y, num_iterations, learning_rate)

    # 获取训练好的参数
    W = params["W"]
    b = params["b"]

    # 预测
    Y_prediction = predict(W, b, X)
    print(f"预测结果: {Y_prediction}")
    print(f"真实标签: {Y}")

在代码实现时,很容易遇到因为数组维度的问题,导致向量化运算出错。下面简单解释一下部分数组。

样本X ={ [x01 , x02 , x03 ...... x0m],

x11 , x12 , x13 ...... x1m\] , \[x21 , x22 , x23 ...... x2m\] } 注意不一定是2维数组,**每一行代表着一个样本,而每一列代表着一种类型。** 这个例子中可以看到,该样本数组中一共有3个样本,每个样本有m个特征**。** 权重W=\[w1 , w2 , w3 ...... wn

权重数组中元素数量等于于样本的特征数量,每一个特征的权重可能有所差异,需要不断迭代使其合理。

相关推荐
薛定猫AI13 小时前
【深度解析】零代码到 CLI 双路径构建 AI Agent:RAG、工具调用与自动化工作流实战
大数据·人工智能·自动化
承渊政道13 小时前
Prompt工程:连接大语言模型能力与真实应用的关键桥梁
人工智能·深度学习·语言模型·自然语言处理·chatgpt·prompt·transformer
极客小云13 小时前
【AiCodeAudit 2.0 发布:基于调用图与局部子图的 AI 代码安全审计平台】
人工智能·网络安全·语言模型·大模型·github·安全性测试·代码复审
王_teacher19 小时前
RNN 循环神经网络 计算过程(通俗+公式版+运行实例)
人工智能·rnn·nlp
玩转单片机与嵌入式19 小时前
一个成熟的嵌入式AI系统,是长什么样子的?
人工智能·单片机·嵌入式硬件·嵌入式ai
曦樂~1 天前
【机器学习】概述
人工智能·机器学习
DeniuHe1 天前
机器学习模型中的偏置项(bias / 截距项)到底有什么用?
人工智能·机器学习
小江的记录本1 天前
【网络安全】《网络安全常见攻击与防御》(附:《六大攻击核心特性横向对比表》)
java·网络·人工智能·后端·python·安全·web安全
思绪无限1 天前
YOLOv5至YOLOv12升级:植物叶片病害识别系统的设计与实现(完整代码+界面+数据集项目)
深度学习·yolo·目标检测·yolov12·yolo全家桶·植物叶片病害检测
白羊by1 天前
YOLOv1~v11 全版本核心演进总览
深度学习·算法·yolo