TensorFlow(一)

一  基本概念:

  

Tensorflow是一个计算密集型的编程系统,使用图(graphs)来表示计算任务,图(graphs)中的节点称之为op(operation),一个op得到0个或多个Tensor,执行计算,产生0个或多个Tensor。 Tensor 看做是一个 n 维的数组或列表。图必须在会话(Session)里被启动html

 

使用图(graphs)来表示计算任务
在被称之为会话(Session)的上下文(context)中执行图
使用tensor表示数据
经过变量(Variable)维护状态
使用feed和fetch能够为任意的操做赋值或者从其中获取数据
python

 

Tensorflow结构 
linux

 

 二 安装:

ubantu  py3.5版:

 CPU版本:编程

pip install http://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-1.0.1-cp35-cp35m-linux_x86_64.whlapi

Windows  在有 安装Anaconda的状况下

 CPU版本:数组

  pip install --upgrade --ignore-installed tensorflow浏览器

 

三  初识tensorflow   (如下内容都基于1.0版本,不一样版本会有些差别)

  一、图

  图默认已经注册,一组表示 tf.Operation计算单位的对象和tf.Tensor 表示操做之间流动的数据单元的对象session

  获取默认图:app

tf.get_default_graph()

  建立新图并使用:dom

g = tf.Graph()

with g.as_default():#在上下文管理器(with模块)中,g做为默认图
  a
= tf.constant(1.0)

 

  二、会话

  运行TensorFlow操做图的类,使用默认注册的图(能够指定运行图)

  会话可能拥有不少资源,如 tf.Variable,tf.QueueBase 和tf.ReaderBase,会话结束后须要进行资源释放(能够用with上下文管理器实现)

  会话运行后返回值异常:     RuntimeError:若是它Session处于无效状态(例如已关闭)。

             TypeError:若是fetches或feed_dict键是不合适的类型。

              ValueError:若是fetches或feed_dict键无效或引用 Tensor不存在

  Tensorflow 中Feed操做(占位):

    意义:在程序执行的时候,不肯定输入的是什么,提早“占个坑”

    语法:placeholder提供占位符,run时候经过feed_dict指定参数

    例:

import tensorflow as tf
val1 = tf.placeholder(tf.float32)
val2 = tf.placeholder(tf.float32)
sum = tf.add(val1, val2)
with tf.Session() as sess:
    print(sess.run(sum,feed_dict={val1:1.0, val2:2.0}))

 

  三、张量

    张量是Tensorflow基本的数据格式, 有三部分:形状,数据类型,名字

    张量的阶:

    

    张量的数据类型:

    

    张量的属性:  graph(张量所属的默认图)    op(张量的操做名)    name(张量的字符串描述)   shape(张量形状)

    张量的动态形状与静态形状:

    静态形状: 建立一个张量或者由操做推导出一个张量时,初始状态的形状

     tf.Tensor.get_shape:获取静态形状

     tf.Tensor.set_shape():更新Tensor对象的静态形状,一般用于在不能直接推 断的状况下

    注意:

      一、转换静态形状的时候,遵循1-D到1-D,2-D到2-D的规则,不能跨阶数改变形状

      二、 对于已经固定或者设置静态形状的张量/变量,不能再次设置静态形状

    动态形状: 一种描述原始张量在执行过程当中的一种形状

    tf.reshape:改变原来的形状建立一个具备不一样动态形状的新张量

    注意:

       一、tf.reshape()动态建立新张量时,元素个数须要和改变前的个数匹配

    生成张量:

    tf.random_normal(shape,mean=0.0, stddev=1.0,dtype=tf.float32,seed=None,name=None)   (经常使用)

    tf.zeros(shape,dtype=tf.float32,name=None)

    tf.ones(shape,dtype=tf.float32,name=None)

    tf.constant(value,dtype=None,shape=None,name="Const")

    ... ...

    详细的能够参考API(中文):http://wiki.jikexueyuan.com/project/tensorflow-zh/api_docs/python/index.html

 

    张量的转换(经常使用):

    tf.String_to_number(string_tensor,out_type=None,name=None)

    tf.cast(x, dtype, name=None)

    tf.shape(input, name=None)

    tf.reshape(tensor, shape, name=None)

    ... ...

    张量的拓展:

    tf.concat(values, axis, name='concat')

 

  四、变量

      变量也是一种OP,是一种特殊的张量,可以进行存储持久化,它的 值就是张量

    1)、变量的建立

      tf.Variable(initial_value=None,name=None) 建立一个带值initial_value的新变量    name属性表示变量名字

      assign(value) 为变量分配一个新值 返回新值

      eval(session=None) 计算并返回此变量的值

    2)、变量的初始化

      tf.global_variables_initializer()

    3)、变量的做用域

      做用 : 让模型代码更加清晰,做用分明, 在tensorboard中更易阅读

      建立:

       tf.variable_scope(<scope_name>)建立指定名字的 变量做用域

    如: 

with tf.variable_scope("train"):
    '''
  做用域内的代码
  '''

 

  五、可视化学习Tensorboard

    TensorBoard 经过读取 TensorFlow 的数据序列化-events文件来运行

   在程序中加入代码:

      tf.summary.FileWriter('路径', graph= 想可视化的图)       返回filewriter,写入事件文件到指定目录(最好用绝对路径),以提供给tensorboard使用

   在命令行开启:

       tensorboard --logdir=/tmp/tensorflow/summary/test/

   通常浏览器打开为127.0.0.1:6006

   注:修改程序后,再保存一遍会有新的事件文件,打开默认为最新

   tensorboard中,图的符号意义:

    

   在tensorboard中显示变量的变化:

    一、收集变量: tf.summary.scalar(name=’’,tensor) 收集对于损失函数和准确率 等单值变量,name为变量的名字,tensor为值

          tf.summary.histogram(name=‘’,tensor) 收集高维度的变量参数         

          tf.summary.image(name=‘’,tensor) 收集输入的图片张量能显示图片

    二、合并变量写入事件文件:merged = tf.summary.merge_all()

    三、运行合并:summary = sess.run(merged),每次迭代都需运行

    四、添加:FileWriter.add_summary(summary,i),i表示第几回的值

 

  六、模型保存和加载

    建立一个Saver对象(假设返回saver,用于模型保存和加载):

      tf.train.Saver(var_list=None,max_to_keep=5)  其中:

        var_list:指定将要保存和还原的变量。它能够做为一个 dict或一个列表传递.

        max_to_keep:指示要保留的最近检查点文件的最大数量。 建立新文件时,会删除较旧的文件。若是无或0,则保留全部 检查点文件。默认为5(即保留最新的5个检查点文件。)

    保存模型:

    saver.save(sess,"保存模型的路径(本身指定目录便可)"

    保存文件格式:checkpoint文件

    加载模型:

    saver.restore(sess,"保存模型的路径(和上面的路径一致)"

 

  七、自定义命令行参数

     一、tf.app.flags,它支持应用从命令行接收参数,能够用来指定集群配置等.在它下面有各类定义参数的类型:

      DEFINE_string(flag_name, default_value, docstring)

      DEFINE_integer(flag_name, default_value, docstring)

      DEFINE_boolean(flag_name, default_value, docstring)

      DEFINE_float(flag_name, default_value, docstring)

    二、tf.app.flags.,在flags有一个FLAGS标志,它在程序中能够调用到咱们 前面具体定义的flag_name

    三、经过tf.app.run()启动main(argv)函数

  八、用以上知识实现一个简单的线性回归案例

def mylinearregression():
    """
    自实现线性回归
    :return: None
    """
    with tf.variable_scope("data"):  #做用域
        # 手动建立训练数据
        # x表示训练数据的特征  有100个样本,1个特征   
        X = tf.random_normal([100, 1], mean=0.0, stddev=1.0, name="X")    #生成一组服从标准正太分布的数据
        # y_true表示训练数据的标签,   跟x是线性关系
        y_true = tf.matmul(X, [[0.7]]) + 0.8

    with tf.variable_scope("model"):   #做用域
        # 创建模型
        # 由准备的数据(x是100行1列的数据,y_true也是100行1列的数据)能够看出,权重是 1行1列的数据
        weights = tf.Variable(tf.random_normal([1, 1], mean=0.0, stddev=1.0), name="weights")
        bias = tf.Variable(0.0)
        # 得出预测值
        y_predict = tf.matmul(X, weights) + bias

    with tf.variable_scope("Optimize"):   #做用域
        # 计算真实值与预测值之间的均方偏差(损失函数)
        loss = tf.reduce_mean(tf.square(y_true - y_predict))   #tf.square求方差  tf.reduce_mean求均值

        # 梯度降低优化偏差,指定学习率,返回一个梯度降低优化器
        train_op = tf.train.GradientDescentOptimizer(0.2).minimize(loss)

    # 收集变量
    tf.summary.scalar("loss", loss)
    tf.summary.scalar("bias", bias)

    tf.summary.histogram("weight", weights)

    # 定义初始化变量OP
    init_op = tf.global_variables_initializer()

    # 定义一个合并变量的OP
    merged = tf.summary.merge_all()

    # 建立一个Saver
    saver = tf.train.Saver()

    # 开启会话
    with tf.Session() as sess:
        # 运行初始化
        sess.run(init_op)

        # 打印一下初始化随机的权重和偏置
        print("随机初始化的权重为%f,偏置为%f" % (weights.eval(), bias.eval()))

        # 建立事件文件
        filewriter = tf.summary.FileWriter("./tmp/summary/test/", graph=sess.graph) #此路径只须指定目录且目录存在

        # 加载模型
        if os.path.exists("./tmp/ckpt/checkpoint"):  #此路径中目录与模型保存的目录一致,文件名固定为checkpoint 
            saver.restore(sess, "./tmp/ckpt/regressionmodel")#此路径与模型保存的路径一致

        # 循环优化, 30是指定训练的步数(可更改)
        for i in range(30):
            # 运行优化
            sess.run(train_op)

            # 运行合并结果
            summary = sess.run(merged)

            # 写入变量结果
            filewriter.add_summary(summary, i)

            print("训练第%d次的结果:权重为%f,偏置为%f" % (i, weights.eval(), bias.eval()))
     # 保存模型 saver.save(sess,
"./tmp/ckpt/regressionmodel")#路径中的目录路径须存在,且要指定文件名称
return None 

 

# 自定义命令行参数
tf.app.flags.DEFINE_string("data_home", "./data/", "训练数据来源")
tf.app.flags.DEFINE_integer("max_step", 10000, "训练步数")

FLAGS = tf.app.flags.FLAGS

def main(argv):
    print(argv)
    print(FLAGS.data_home)
    print(FLAGS.max_step)

if __name__ == "__main__":
    tf.app.run()                        
相关文章
相关标签/搜索