T2-创建第一个神经网络

创建神经网络


### 1. 实现添加层函数 完整的「神经网络」, 包括添加神经层, 计算误差, 训练步骤, 判断是否在学习. 定义一个添加层的函数可以很容易的添加神经层. ``` import tensorflow as tf

def add_layer(inputs, in_size, out_size, activation_function=None):
# 权重: 定义为 in_size 行 out_size 列的矩阵
Weights = tf.Variable(tf.random_normal([in_size, out_size]))
# 误差: 1 行 out_size 列 (输入一个维度), 推荐不为 0, 所以这里全给 0.1
biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)
# 我们要计算的数据模型: y = inputs * Weights + biases
Wx_plus_b = tf.matmul(inputs, Weights) + biases
# 是否使用激励函数?
if activation_function is None:
outputs = Wx_plus_b
else:
outputs = activation_function(Wx_plus_b)
return outputs

参数:

*    inputs    : 输入数据
*    in_size   : 输入大小
*    out_size: 输出大小
*    activation_function: 激励函数, 默认不使用激励函数 (None)
</br>

### 2. 建造神经网络

1. 构建所需数据

import numpy as np

x_data = np.linspace(-1, 1, 300, dtype=np.float32)

这里加入噪点「noise」, 让数据更像真实情况

noise = np.random.normal(0, 0.05, x_data.shape).astype(np.float32)
y_data = np.square(x_data) - 0.5 + noise

我们要构建的是: y = x^2 - 0.5


2. 定义神经网络的输入

占位符类型为 float32, None 表示输入有多少都可以, 1 表示输入只有一个特征

xs = tf.palceholder(tf.float32, [None, 1])
ys = tf.placeholder(tf.float32, [None, 1])


3. 定义神经层
神经层包括输入层, 隐藏层和输出层. 输入层和输出层的结构一样, 隐藏层可以自定义属性个数. 这里我们构建一个「1个 输入层, 10 个隐藏层, 1 个输出层的神经网络」.

隐藏层: 输入为我们给的 xs, 输出为要输出到输出层的 10

l1 = add_layer(xs, 1, 10, acitvation_function=tf.nn.relu)

输出层: 输入即为隐藏层的输出

prediction = add_layer(l1, 10, 1, activation_function=None)


4. 计算误差并优化

计算预测值prediction和真实值的误差, 对二者差的平方求和再取平均

loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction)),
reduction_indices=[1])

提升机器学习的准确率, 对误差 loss 进行化, 效率为 0.1 (一般小于 1)

train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)

</br>

### 3. 让机器开始学习
注意: 上一篇提到的占位符 (placeholder) 需要填充 (feed) 值才能使用「[TensorFlow 基础](http://www.cnblogs.com/TaylorBoy/p/6749763.html "TaylorBoy")」

记得变量都要进行初始化

init_op = tf.global_variables_initializer()

我们让机器学习个 1000 次

with tf.Session() as sess:
sess.run(init_op)
for i range(1000):
# 1000 次的学习训练, 记得占位符要填充值
sess.run(train_step, feed_dict={xs: x_data, ys: y_data})
# 当然要输出来看一下学的怎么样了 (看的是误差, 50步来一次怎么样)
if 0 == i % 50:
print(sess.run(loss, feed_dict={xs: x_data, ys: y_data}))

</br>

***

完整代码:

!/usr/bin/env python3

-- coding: utf-8 --

import tensorflow as tf
import numpy as np

def add_layer(inputs, in_size, out_size, activation_function=None):
Weight = tf.Variable(tf.random_normal([in_size, out_size]))
biases = tf.Variable(tf.zeros([1, out_size]) + 0.1) # biases not 0 is good
Wx_plus_b = tf.matmul(inputs, Weight) + biases
# if activation function is None or not:
if activation_function is None:
outputs = Wx_plus_b
else:
outputs = activation_function(Wx_plus_b)
return outputs

Create data: [-1, 1] steps: 300 newaxis: weidu--have 300 examples.

x_data = np.linspace(-1, 1, 300, dtype=np.float32)[:, np.newaxis]
noise = np.random.normal(0, 0.05, x_data.shape).astype(np.float32)
y_data = np.square(x_data) - 0.5 + noise

利用占位符定义我们所需的神经网络的输入

xs = tf.placeholder(tf.float32, [None, 1])
ys = tf.placeholder(tf.float32, [None, 1])

输出层和输入层的结构是一样的;隐藏层我们可以自己假设

layer1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu) # Hidden layer
prediction = add_layer(layer1, 10, 1, activation_function=None) # Output layer

计算预测值prediction和真实值的误差,对二者差的平方求和再取平均

loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),
reduction_indices=[1]))

train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)

init = tf.initialize_all_variables()

init = tf.global_variables_initializer()

Session Start

sess = tf.Session()
sess.run(init)

当运算要用到placeholder时,就需要feed_dict这个字典来指定输入

for i in range(1000):
# training
sess.run(train_step, feed_dict={xs: x_data, ys: y_data})
if 0 == i % 50:
print(sess.run(loss, feed_dict={xs: x_data, ys:y_data}))

sess.close()

Session End

* 输出:
0.555579
0.00811244
0.00558974
0.00454906
0.00409126
0.0037941
0.00361542
0.00350574
0.00342049
0.00335584
0.00330608
0.00326254
0.00322398
0.00318576
0.00315625
0.00313178
0.00311166
0.00309352
0.00307576
0.00305789
</br>
原文地址:https://www.cnblogs.com/TaylorBoy/p/6753917.html