Keras人工智能神经网络 Regressor 回归 神经网络搭建

前期分享了使用tensorflow来进行神经网络的回归,tensorflow构建神经网络

本期我们来使用Keras来搭建一个简单的神经网络

Keras神经网络可以用来模拟回归问题 (regression),例如给下面一组数据,用一条线来对数据进行拟合,并可以预测新输入 x 的输出值,也就是线性回归问题(Y=w*X+b)

1创建随机数据

复制代码
import numpy as np
np.random.seed(1337) # 随机数
from keras.models import Sequential # models.Sequential,用来一层一层的建立神经层
from keras.layers import Dense # layers.Dense 个神经层是全连接层
import matplotlib.pyplot as plt # 可视化模块

创建数据

复制代码
X = np.linspace(-1, 1, 300)
np.random.shuffle(X) # 数据随机化
Y = 0.5 * X + 2 + np.random.normal(0, 0.05, (300, ))
# 显示创建的数据
plt.scatter(X, Y)
plt.show()
X_train, Y_train = X[:260], Y[:260] # train 前 260 data points
X_test, Y_test = X[260:], Y[260:] # test 后 40 data points

数据创建完后,我们查看一下生成的随机数据

建立神经网络模型

Sequential 建立 model

model.add 添加神经层,添加的是 Dense 全连接神经层。

参数有两个,一个是输入数据和输出数据的维度,本代码的例子中 x 和 y 是一维的。

如果需要添加下一个神经层的时候,不用再定义输入的纬度,因为它默认就把前一层的输出作为当前层的输入(这一点大大简化了神经网络的搭建过程)

复制代码
model = Sequential()
model.add(Dense(output_dim=1, input_dim=1))
model.compile(loss='mse', optimizer='sgd') 
# 参数中,误差函数用的是 mse 均方误差;优化器用的是 sgd 随机梯度下降法

以上3行代码便是keras神经网络的搭建过程(比tensorflow减少了很多),构建完成神经网络后,开始训练

keras神经网络训练

复制代码
for step in range(401):
cost = model.train_on_batch(X_train, Y_train)
if step % 100 == 0:
print('train cost: ', cost)
'''
train cost: 4.0291815
train cost: 0.076484405
train cost: 0.004810586
train cost: 0.0029513359
train cost: 0.002760151
'''

训练400步,每100步打印一下训练的结果,使用model.train_on_batch 一批一批的训练 X_train, Y_train

keras 神经网络的验证

使用 model.evaluate,输入测试集的x和y, 输出 cost,weights 和 biases。其中 weights 和 biases 是取在模型的第一层 model.layers[0] 学习到的参数

从训练的结果看出, weights 比较接近0.5,bias 接近 2,符合我们输入的模型

复制代码
cost = model.evaluate(X_test, Y_test, batch_size=40)
print('test cost:', cost)
W, b = model.layers[0].get_weights()
print('Weights=', W, '\nbiases=', b)
40/40 [==============================] - 0s 450us/step
test cost: 0.003141355235129595
Weights= [[0.51579475]]
biases= [1.9971616]

可视化模型

验证完成后,我们可以可视化模型,看看神经网络预测的数据与实际数据的差异

复制代码
Y_pred = model.predict(X_test)
plt.scatter(X_test, Y_test)
plt.plot(X_test, Y_pred)
plt.show()

以上便是keras构建回归神经网络的步骤,我们下期分享一下如何使用keras构建分类模型的神经网络

动画详解transformer

复制代码
更多transformer,VIT,swin tranformer
参考头条号:人工智能研究所
v号:启示AI科技
微信中复制如下链接,打开,免费体验chatgpt
 
https://wx2.expostar.cn/qz/pages/manor/index?id=1137&share_from_id=79482&sid=24
相关推荐
m0_6351292610 小时前
身智能-一文详解视觉-语言-动作(VLA)大模型(3)
人工智能·机器学习
知行力10 小时前
AI一周资讯 251108-251114
人工智能·chatgpt
迦蓝叶10 小时前
RDF 与 RDFS:知识图谱推理的基石
java·人工智能·数据挖掘·知识图谱·语义网·rdf·rdfs
DisonTangor10 小时前
【百度拥抱开源】介绍ERNIE-4.5-VL-28B-A3B-Thinking:多模态AI的重大突破
人工智能·百度·语言模型·开源·aigc
F_D_Z11 小时前
【解决办法】报错Found dtype Long but expected Float
人工智能·python
pen-ai11 小时前
【高级机器学习】 12. 强化学习,Q-learning, DQN
人工智能·机器学习
受之以蒙11 小时前
Rust ndarray 高性能计算:从元素操作到矩阵运算的优化实践
人工智能·笔记·rust
野生面壁者章北海11 小时前
NeurIPS 2024|大语言模型高保真文本水印新范式
人工智能·语言模型·自然语言处理
KG_LLM图谱增强大模型11 小时前
如何利用大语言模型(LLM)实现自动标注与内容增强
人工智能·知识管理·内容管理·本体论·图谱增强大模型·自动标签·大模型内容标注
数据与后端架构提升之路12 小时前
小鹏VLA 2.0的“神秘涌现”:从痛苦到突破,自动驾驶与机器人如何突然“开窍”?
人工智能·机器人·自动驾驶