Keras实践笔记1——线性回归

原创
2018/06/09 23:07
阅读数 662
import matplotlib.pyplot as plt
import numpy as np
from keras import Sequential
from keras.layers import Dense

x = np.linspace(-10, 10, 300)
y = 3 * x + np.random.random(x.shape) * 0.44

model = Sequential()
model.add(Dense(1, activation='linear', input_shape=(1,)))
model.compile(optimizer='SGD', loss='mean_squared_error', metrics=['accuracy'])

model.summary()

model.fit(x, y, epochs=100, validation_split=0.3, verbose=2)
y_paint = model.predict(x)

plt.plot(x, y)
plt.plot(x, y_paint)
plt.show()

模型的summery如下

_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
dense_1 (Dense)              (None, 1)                 2         
=================================================================
Total params: 2
Trainable params: 2
Non-trainable params: 0

Dense是keras里面最常用的全连接层,我们定义了输入的形状是一维数组,这里有个比较好理解的方式,也就是input_shape的第一维度长度是送进去学习的记录数,后面的则是代表着一条记录,这一条记录可能是n维的。总的来说,这里用去掉第一个维度的shape就好了。 在第一层的Dense里面,定义了这一层的网络输出为1,也就是summery里面打出来的(None, 1)了。那这些输出怎么出来呢?在Dense里面我们定义了一个激活函数,这里用了keras预定义的linear 激活函数,也就是线性激活函数了。

由于线性回归比较简单,所以一层神经元就可以了,接下来调用compile函数构建模型。 在compile函数里面,我们制定了优化器为SGD(随机梯度下降)。这里推荐这篇文章理解SGD是怎么回事 为什么说随机最速下降法(SGD)是一个很好的方法?,评价损失使用均方误差mean_squared_error ,而性能评估函数选择了accuracy ,Keras的文档没有说明这货是怎么回事,倒是讲了其他杂七杂八的评估函数.....翻看了源码后发现,只要选的事accuracy,那么他就会根据损失函数和输出自动选择=。=

均方误差(Mean Squared Error, MSE)是衡量“[平均误差]”的一种较方便的方法。可以评价数据的变化程度。

展开阅读全文
加载中

作者的其它热门文章

打赏
0
0 收藏
分享
打赏
0 评论
0 收藏
0
分享
返回顶部
顶部