tensorflow笔记(一)之基础知识

tensorflow笔记(一)之基础知识
html

版权声明:本文为博主原创文章,转载请指明转载地址python

http://www.cnblogs.com/fydeblog/p/7399701.htmlubuntu

前言api

这篇notebook将一步步构建一个tensorflow的线性回归的例子,并讲述其中的一些基础知识。我会把notebook文件放在结尾的百度云连接。网络

首先第一步,要安装tensorflow,这个网上的教程不少,我安装的版本是ubuntu下1.2.1的tensorflow,推荐用pip(一步就好)这里附上一个安装教程的连接https://www.leiphone.com/news/201606/ORlQ7uK3TIW8xVGF.html ,安装ubuntu系统的直接看必不可少的python-pip和python-dev的那部分,这篇博客的博主安装的是0.8版本的,因此你须要改一下版本,因为个人电脑不支持gpu加速,因此安装的是cpu,这两个仍是颇有区别的,建议有gpu的仍是装gpu版本的,后面跑程序快一些,举个例子,我在跑cnn卷积神经网络的手写识别的程序,没有gpu加速,跑了40分钟,有估计会很快,上面连接是cpu版本的,gpu版本应该也差不错,只有本身去安装了。session

1. tensorflow的基本结构

咱们先从python中导入tensorflowdom

import tensorflow as tf

这样命名比较简单明了,若是运行这行出现错误,说明你没有安装成功iphone

matrix1 = tf.constant([[3., 3.]])  #1 row by 2 column
matrix2 = tf.constant([[2.],[2.]]) # 2 row by 1 column

这里用tf.constant建立了两个矩阵matrix1和matrix2,想知道如何去使用tf的函数,请点击https://www.tensorflow.org/api_docs/python/这个网址,里面是tf的api文档,能够直接在上面的搜索框内搜任何一个函数,能够看函数功能,参数,返回值等等。
这里的tf.constant函数是建立一个常量,返回值等于函数的输入参数,之因此要用tf.constant,这是由于tensorflow有一个特别的地方,那就是用tensorflow的函数建立或返回一个数据,至关于一个源op,源op至关于tensorflow中最小的单元,每个数据都是一个源op函数

建立完前面的两个常量后,咱们开始矩阵相乘工具

product = tf.matmul(matrix1, matrix2)

tf.matmul函数是tensorflow里面的矩阵相乘函数。product也是一个源op,如今咱们讲讲图(graph)的概念,tensorflow中图表示计算任务,上面几行代码彷佛看不到图的生成过程哈,这是由于tensorflow有一个默认图,它已经能知足大部分需求,因此不须要构建图,目前笔记都会是默认图,多图操做我如今还不会,看之后有没有机会写吧。在这个默认图中,已经有三个源op了,分别是product,matrix1和matrix2,咱们能够将三个源op看做默认图中的三个节点,但这三个节点是有关系的,product节点链接这matrix1和matrix2节点,有点像树的分叉,product至关于主干,matrix1和matrix2至关于两个分支。

而后咱们要建立一个会话

sess = tf.Session()

tensorflow要求全部的任务必须在会话中运行,上面这个语句就是建立一个会话

而后咱们在会话中运行product

sess.run(product)

返回结果1X1的矩阵,数据类型是float32(tensorflow的默认类型)

咱们来自顶向下看,最顶的是会话(Session),而后会话中包括了各类任务,也是graph,任务又是由不一样的源op组成。我用tensorboard画了图(tensorboard是tensorflow可视化的一个很是好的工具,这个后面会说),如图

2. tensorflow下的回归实例

好了,如今咱们开始举一个回归例子来实践一下吧

import tensorflow as tf
import numpy as np

## prepare the original data
x_data = np.random.rand(100).astype(np.float32)
y_data = 0.3*x_data+0.1
##creat parameters
weight = tf.Variable(tf.random_uniform([1],-1.0,1.0))
bias = tf.Variable(tf.zeros([1]))
##get y_prediction
y_prediction = weight*x_data+bias
##compute the loss
loss = tf.reduce_mean(tf.square(y_data-y_prediction))
##creat optimizer
optimizer = tf.train.GradientDescentOptimizer(0.5)
#creat train ,minimize the loss 
train = optimizer.minimize(loss)
#creat init 
init = tf.global_variables_initializer()

##creat a Session 
sess = tf.Session()
##initialize
sess.run(init)
## Loop
for step  in  range(101):
    sess.run(train)
    if step %10==0 :
        print step ,'weight:',sess.run(weight),'bias:',sess.run(bias)

第一项是准备数据,使用了numpy的函数,随机生成100个float32型的数据,并生成相应的观测值y
第二项是生成训练参数,权重weight和误差bias,这个是tf.Variable函数生成了,这个函数很是经常使用,变量都是用它来生成的
第三项是获得预测值,经过上面的参数与x_data运算获得
第四项计算损失,观测值与预测值相差平方取平均
第五项生成一个优化器,使用的是梯度降低优化器
第六项则是用优化器去最小化损失
第七项是生成初始化op,至关于全部变量初始化的开关,在sess里运行则全部变量进行初始化
第八项是生成会话session
第九项是初始化全部变量,只有用tf.Variable函数,都要用这个sess.run(init)初始化,否则参数没有进行初始化,没法迭代更新
第十项是循环训练,执行train,它会最小化损失,在这个过程当中,参数也在不停地更新,咱们用print打印出了步数和参数值

这个说一句,使用tf函数生成的源op,必须在会话中运行,上面一小节咱们讲了自顶向下看,这里的顶是train,最下面是参数,sess.run(train)会带动它各个分支和分支下面的分支运行

上述程序输出结果以下

为了方便理解,我用tensorboard画了流动图,如图

结尾

基础知识到一段落了,但愿这篇文章能对你学习tensorflow有帮助,因为博主能力有限,如有错误之处,还请不吝指教!谢谢!

 

百度云连接:https://pan.baidu.com/s/1eBDs0ey4K9-3rVnsJOorag

相关文章
相关标签/搜索