从0开始机器学习--Day16--神经网络作业

题目:构建逻辑回归模型来识别数字0-9

代码如下:

复制代码
import numpy as np
from scipy.io import loadmat
import scipy.optimize as opt
from sklearn.metrics import classification_report

# 定义函数sigmoid,方便后续假设函数以sigmoid(z)表示
def sigmoid(z):
    return 1 / (1 + np.exp(-z))

# 定义代价函数
def computeCost (theta, X, y, l=1 ):
    predictions = sigmoid(X @ theta)
    first = y * np.log(predictions)
    second = (1 - y) * np.log(1 - predictions)
    reg = theta[1:]@theta[1:]*(l/(2*len(X)))   #正则化项
    return -np.sum(first + second)/len(X) +reg  # 返回标量

def gradient(theta, X, y, l=1):
    reg = theta[1:] * (l/len(X))
    reg = np.insert(reg, 0, values=0, axis=0)
    first = (X.T@(sigmoid(X@theta)-y))/len(X)
    return first + reg

def one_vs_all(X, y, l=1, K = 10):
    n = X.shape[1]
    theta = np.zeros((K, n)) #创建与X的列数相同长度的0数组
    for i in range(1, K+1):
        theta_i = np.zeros(n, )

        res = opt.minimize(fun=computeCost,
                           x0=theta_i,
                           args=(X, y==i, l),
                           method='TNC',
                           jac=gradient)
        theta[i-1, :] = res.x

    return theta

def predict(X, theta):
    h = sigmoid([email protected])
    h_argmax = np.argmax(h, axis=1)
    return h_argmax + 1


data = loadmat('ex3data1.mat')
raw_x = data['X']
raw_y = data['y']
X = np.insert(raw_x, 0, values=np.ones(raw_x.shape[0]), axis=1)
y = raw_y.flatten()
print(y.shape)
theta_all = one_vs_all(X, y, l=1, K=10)
print(theta_all)
y_pred = predict(X, theta_all)
acc = np.mean(y_pred == y)
print(acc)
print(classification_report(y, y_pred))

输出:

复制代码
(5000,)
[[-2.38017165e+00  0.00000000e+00  0.00000000e+00 ...  1.30445260e-03
  -7.38340466e-10  0.00000000e+00]
 [-3.18105182e+00  0.00000000e+00  0.00000000e+00 ...  4.45068628e-03
  -5.07434671e-04  0.00000000e+00]
 [-4.79899590e+00  0.00000000e+00  0.00000000e+00 ... -2.86819678e-05
  -2.48325958e-07  0.00000000e+00]
 ...
 [-7.98439304e+00  0.00000000e+00  0.00000000e+00 ... -8.94750803e-05
   7.22839979e-06  0.00000000e+00]
 [-4.57041525e+00  0.00000000e+00  0.00000000e+00 ... -1.33611163e-03
   9.99192279e-05  0.00000000e+00]
 [-5.40239782e+00  0.00000000e+00  0.00000000e+00 ... -1.16450568e-04
   7.86669421e-06  0.00000000e+00]]
0.9446
              precision    recall  f1-score   support

           1       0.95      0.99      0.97       500
           2       0.95      0.92      0.93       500
           3       0.95      0.91      0.93       500
           4       0.95      0.95      0.95       500
           5       0.92      0.92      0.92       500
           6       0.97      0.98      0.97       500
           7       0.95      0.95      0.95       500
           8       0.93      0.92      0.92       500
           9       0.92      0.92      0.92       500
          10       0.97      0.99      0.98       500

    accuracy                           0.94      5000
   macro avg       0.94      0.94      0.94      5000
weighted avg       0.94      0.94      0.94      5000

用神经网络前向传播计算准确率代码:

复制代码
from scipy.io import loadmat
import numpy as np
from sklearn.metrics import classification_report


def sigmoid(z):
    return 1 / (1 + np.exp(-z))

data = loadmat('ex3data1.mat')
raw_x = data['X']
raw_y = data['y']
X = np.insert(raw_x, 0, values=np.ones(raw_x.shape[0]), axis=1)
y = raw_y.flatten()
print(y.shape)
theta = loadmat('ex3weights.mat')
theta1 = theta['Theta1']
theta2 = theta['Theta2']

a1 = X
z2 = [email protected]
a2 = sigmoid(z2)
a2 = np.insert(a2, 0, values=1, axis=1)
z3 = [email protected]
a3 = sigmoid(z3)
y_pred = np.argmax(a3, axis=1) + 1
acc = np.mean(y_pred == y)
print(acc)
print(classification_report(y, y_pred))

输出:

复制代码
(5000,)
0.9752
              precision    recall  f1-score   support

           1       0.97      0.98      0.98       500
           2       0.98      0.97      0.98       500
           3       0.98      0.96      0.97       500
           4       0.97      0.97      0.97       500
           5       0.97      0.98      0.98       500
           6       0.98      0.99      0.98       500
           7       0.98      0.97      0.97       500
           8       0.98      0.98      0.98       500
           9       0.97      0.96      0.96       500
          10       0.98      0.99      0.99       500

    accuracy                           0.98      5000
   macro avg       0.98      0.98      0.98      5000
weighted avg       0.98      0.98      0.98      5000

总结:在构建多元分类的模型中,方法就是将其转化为二元分类,再做循环计算,这样每次只需要将本身看做为0或1即可,注意其每次循环时要取概率最高的那次才有意义。用神经网络时,其结果有点过于理想了,怀疑是出现了过拟合现象。

视频订正参考:【作业讲解】编程作业3:神经网络(上)_哔哩哔哩_bilibili

相关推荐
carpell9 分钟前
【语义分割专栏】:FCN原理篇
人工智能·深度学习·计算机视觉·语义分割
东莞呵呵31 分钟前
吴恩达机器学习(1)——机器学习算法分类
算法·机器学习·分类
满怀10151 小时前
【生成式AI文本生成实战】从GPT原理到企业级应用开发
人工智能·gpt
微刻时光2 小时前
影刀处理 Excel:智能工具带来的高效变革
人工智能·python·低代码·自动化·excel·rpa·影刀rpa
小技工丨3 小时前
LLaMA-Factory:环境准备
机器学习·大模型·llama·llama-factory
聚客AI4 小时前
ChatGPT到Claude全适配:跨模型Prompt高级设计规范与迁移技巧
人工智能·机器学习·语言模型·自然语言处理·langchain·transformer·llama
小羊Linux客栈4 小时前
自动化:批量文件重命名
运维·人工智能·python·自动化·游戏程序
Mr数据杨8 小时前
【Dv3Admin】插件 dv3admin_chatgpt 集成大语言模型智能模块
人工智能·语言模型·chatgpt
zm-v-159304339868 小时前
AI 赋能 Copula 建模:大语言模型驱动的相关性分析革新
人工智能·语言模型·自然语言处理
phoenix@Capricornus9 小时前
反向传播算法——矩阵形式递推公式——ReLU传递函数
算法·机器学习·矩阵