这是一次使用《TensorFlow笔记(1)——TensorFlow中的相关基本概念》中学习到的知识进行机器学习的实验,一来是为了理解机器学习大概是什么样的,另外一方面也算是将以前学习到的一些知识活学活用。 本次实现的环境为:html
机器学习和人类学习的过程:python
若是以为上图很差理解的话就再举一个栗子:dom
假设你有个女友,她特别爱漂亮。为了互相了解,大家每周末都会一块儿约会吃饭;已经约会有8周了,每周吃饭你女友都会比约定时间晚到10分钟-30分钟,因此你每次约会也会比约定时间晚10-30分钟,而且你总结了一个规律(若是约会前打电话她说从家走了,那么基本都是晚到30分钟左右,若是她说就快到了,那么基本会晚到10分钟),不过你女友后来迟到的时间从十、30分钟变成了1五、45分钟,你也本身调整了约定时间后到达的时间。机器学习
根据上述栗子🌰咱们来类比下:函数
机器学习方法是计算机利用已有的数据(8次约会的经验),得出了某种模型(迟到的规律),并利用此模型预测将来(是否迟到)的一种方法。学习
基础知识在这里我就很少说了,详见《TensorFlow笔记(1)——TensorFlow中的相关基本概念》优化
先来讲明下咱们须要构建的这个简单的线性模型是什么东西:spa
假设咱们有个线性模型(一元一次函数):y=0.1x+0.2
,咱们知道这个线性模型长啥样,就是一条直线嘛,可是我如今想让机器也知道这条直线,该怎么作?还记得上面说的那个栗子吗,咱们能够提供一系列相似(x,y)
的数据,而后带入y=k*x_data+b
,求出k和b的值以后,机器也就知道了这个线性模型长啥样了。code
下面来更数学化一点的介绍:cdn
给定一个大小为n的点集 𝑆={(𝑥1,𝑦1),(𝑥2,𝑦2),…(𝑥𝑛,𝑦𝑛)} ,
线性模型的目标就是寻找一组 K 和 𝑏 构成的直线 𝑦=K𝑥+𝑏 ,
使得全部点的损失值 越小越好,由于𝑙𝑜𝑠𝑠越小就代表预测值与真实值的差距越小。
由于若是咱们找到了这么一组 K 和 𝑏 ,咱们就能够预测某一个 的
值。
这里我想多说几句,线性模型在实际应用中不必定能很好的预测 的值,这是由于实际的数据分布也许不是线性的,多是二次、三次、圆形甚至无规则,因此判断何时能用线性模型很重要。只是由于咱们在这里知道了这是线性模型才这么作的,真正构建模型的时候是须要相应的方法的。
话很少少,分段来看代码:
# tensorflow简单示例
import tensorflow as tf
import numpy as np
复制代码
# 使用numpy生成1000个随机点
x_data = np.random.rand(1000)
y_data = x_data*0.1+0.2 # 真实值
复制代码
# 构造一个线性模型
b = tf.Variable(0.)
k = tf.Variable(0.)
y = k*x_data+b # 预测值
复制代码
# 二次代价函数(损失函数)
loss = tf.reduce_mean(tf.square(y_data-y))
复制代码
依次来解释下每一个部分的含义:
y_data-y
:这个地方没啥好解释的,就是真实值和预测值之间的差tf.square
:这个函数的做用就是求平方tf.reduce_mean
: 函数用于计算张量tensor沿着指定的数轴(tensor的某一维度)上的的平均值,主要用做降维或者计算tensor(图像)的平均值。因此上面这三个函数合在一块儿就是计算loss值。
GradientDescentOptimizer
类建立一个优化器来优化模型,减小loss
值,这个类的原理是梯度降低,至于什么是梯度降低,能够参考其余教程,往后会介绍,目前只要知道这么写就行了。# 定义一个梯度降低法来进行训练的优化器
optimizer = tf.train.GradientDescentOptimizer(0.2)
复制代码
loss
值,minimize
是优化器的一个方法# 定义一个最小化代价函数
train = optimizer.minimize(loss)
复制代码
# 初始化变量
init = tf.global_variables_initializer()
复制代码
Session
训练咱们的模型with tf.Session() as sess: # 定义会话上下文
sess.run(init) # 执行初始化操做
for step in range(3000): # 训练3000次
sess.run(train) # 执行训练操做
if step % 20 == 0: # 每隔20步
print(step, sess.run([k, b])) # 打印出k和b的值
复制代码
至此,一个最简单的线性模型也就完成了。下面是全部代码:
# tensorflow简单示例
import tensorflow as tf
import numpy as np
# 使用numpy生成1000个随机点
x_data = np.random.rand(1000)
y_data = x_data*0.1+0.2 # 真实值
# 构造一个线性模型
b = tf.Variable(0.)
k = tf.Variable(0.)
y = k*x_data+b # 预测值
# 二次代价函数(损失函数)
loss = tf.reduce_mean(tf.square(y_data-y))
# 定义一个梯度降低法来进行训练的优化器
optimizer = tf.train.GradientDescentOptimizer(0.2)
# 定义一个最小化代价函数
train = optimizer.minimize(loss)
# 初始化变量
init = tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)
for step in range(3000):
sess.run(train)
if step % 20 == 0:
print(step, sess.run([k, b]))
复制代码
运行结果的部分截图:
从上面两张图咱们能够明显的看出来,在训练到第2980次的时候,k的结果已经很是很是接近0.1,b也很是很是接近0.2了,由此能够看出,这个模型仍是较为正确的。