『TensorFlow』专题汇总

TensorFlow2.0快速入门:https://tf.wiki/zh/basic/tools.htmlhtml

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++python

TensorFlow:官方文档git

TensorFlow:项目地址github

本篇列出文章对于全零新手不太合适,能够尝试TensorFlow入门系列博客,搭配其余资料进行学习。api

Keras使用tf.Session训练方法教程安全

1、API介绍

基础操做列表

『TensorFlow』0.x_&_1.x版本框架改动汇总网络

『TensorFlow』函数查询列表_数值计算架构

『TensorFlow』函数查询列表_张量属性调整app

『TensorFlow』简单的数学计算框架

『TensorFlow』变量初始化

 

经常使用基础操做

『TensorFlow』pad图片

『TensorFlow』滑动平均

『TensorFlow』one_hot化标签

『TensorFlow』张量尺寸获取

『TensorFlow』张量拼接_调整维度_切片

『TensorFlow』简单的数学计算

 

流程控制

『TensorFlow』流程控制

『TensorFlow』流程控制之tf.identity

『PyTorch』第六弹_最小二乘法对比PyTorch和TensorFlow   :参数更新机制分析,流程控制初探

 

神经网络构建

『TensorFlow』函数查询列表_神经网络相关

『TensorFlow』网络操做API_上   :卷积层,池化层,激活函数(含dropout和bias_add)

 

层/网络解析与实现

『TensorFlow』批处理类

『TensorFlow』layer封装合集

『TensotFlow』转置卷积

『TensotFlow』深层循环神经网络

『TensorFlow』卷积层池化层API对应数学过程

『教程』CapsNet 架构 & TensorFlow 实现

 

『TensorFlow』降噪自编码器设计

『TensorFlow』单&双隐藏层自编码器设计

『TensorFlow』读书笔记_SoftMax分类器

『TensorFlow』读书笔记_降噪自编码器

『TensorFlow』读书笔记_多层感知机

『TensorFlow』读书笔记_简单卷积神经网络

『TensorFlow』读书笔记_进阶卷积神经网络_上

『TensorFlow』读书笔记_进阶卷积神经网络_下

『TensorFlow』读书笔记_AlexNet

『TensorFlow』读书笔记_VGGNet

『TensorFlow』读书笔记_Inception_V3_上

『TensorFlow』读书笔记_Inception_V3_下

『TensorFlow』读书笔记_ResNet_V2

『TensorFlow』读书笔记_Word2Vec

『PyTorch × TensorFlow』第十七弹_ResNet快速实现

 

优化器&梯度操做

.minimize

  • compute_gradients
  • apply_gradients

『TensorFlow』网络操做API_下   :优化器相关接口

『TensorFlow』梯度优化相关   :梯度操做

 

集合操做与正则化实现

『TensorFlow』正则化添加方法整理

『TensorFlow』使用集合collection控制variables

#集合转换为字典,{节点名:输出张量值}
end_points = slim.utils.convert_collection_to_dict(end_points_collection)

# 收集 & 获取 变量
tf.add_to_collection("loss",mse_loss)
tf.add_n(tf.get_collection("loss"))

 

损失函数

L2正则化损失

『TensorFlow』交叉熵API介绍

『TensorFlow』网络操做API_中   :损失函数以及分类器

 

模型载入

『TensorFlow』模型载入方法汇总

 

命令行解析

『Argparse』命令行解析

『TensorFlow』命令行参数解析

 

线程操做&数据读取

Dataset API读取数据

『TensorFlow』数据读取类_data.Dataset

传统数据读取方法

『TensorFlow』从磁盘读取数据

十图详解TensorFlow数据读取机制

『TensorFlow』读书笔记_TFRecord学习

『TensorFlow』TFR数据预处理探究以及框架搭建    :基于queue处理TFR数据

 

『TensorFlow』线程控制器类&变量做用域

线程控制器原理:

监视tensorflow全部后台线程,有异常出现(主要是越界,资源循环完了)时,其should_stop方法就会返回True,而它的request_stop方法则用于要求各个线程安全退出。须要使用local变量,初始化时注意。

常规图片数据读取方式:

img_bytes = tf.read_file(FLAGS.style_image)

image = tf.image.decode_png(img_bytes)

涉及队列操做时报错可能解决办法

OutOfRangeError (see above for traceback): FIFOQueue '_1_input_producer' is closed and has insufficient elements (requested 1, current size 0) [[Node: ReaderReadV2 = ReaderReadV2[_device="/job:localhost/replica:0/task:0/cpu:0"](WholeFileReaderV2, input_producer)]]

由于局部变量(local variables)没有初始化,将初始化变量语句改成

        全局变量初始化:tf.global_variables_initializer().run()

        局部变量初始化:tf.local_variables_initializer().run()

再也不报错。局部变量不多,通常都是系统本身建立的变量,如记录训练进度的epoch。

 

可视化相关

『TensorFlow』第三弹_可视化框架介绍_悄悄问圣僧

『TensorFlow』第三弹_可视化程序实战_女儿美不美

ctrl + 鼠标滑轮 能够放大&缩小tensorboard中全部的页面

命名空间设置好:添加记录节点 -> 汇总记录节点 -> run汇总节点 -> [书写器生成]书写入文件 [-> 刷新缓冲区]

# 书写器生成,会自动记录指定图
tf.summary.FileWriter('./', sess.graph) 
# 张量记录
tf.summary.histogram(layer_name+'/weights',Weights)
# 标量记录
tf.summary.scalar = ('loss',cross_entropy)
# 记录激活
merged = tf.summary.merge_all()
# 书写器生成
train_writer = tf.summary.FileWriter('logs/train',sess.graph)
 # run记录
train_result = sess.run(merged, feed_dict={xs: X_train, ys: y_train, keep_prob:1})
# 书写记录
train_writer.add_summary(train_result,i)
# 刷新缓冲区,当即写入文件
train_writer.flush()

 

slim模块

slim源码

『TensorFlow』slim高级模块

 

2、TensorFlow的tips

节点和张量

节点张量铺设好了以后,只要不加sess.run(),能够运行脚本检查张量节点是否匹配,无需传入实际数据流。

'conv1'指节点,'conv1:0'指节点输出的第一个张量。

sess上下文环境中的函数调用即便不传入sess句柄,函数体内也存在于默认的sess环境中,能够直接sess.run()。

image_holder = tf.placeholder(tf.float32,[None, None, None, 3]),使用None回避指定大小。

sess实际运行单机模式时,会提取目标节点的全部前置依赖构建成子图,而后按照设备划分红多个局部图,局部图根据依赖前后关系对节点进行加载

设备指定使用tf.device('/cpu:0')上下文操做,且支持嵌套,逻辑于slim的scope一致

 

查看信息版本安装路径

import tensorflow as tf
tf.__version__  # 版本
tf.__path_      # 路径
# __看着是一个下划线,其实是两个下划线

 

一般张量的Feed

『TensotFlow』基础RNN网络回归问题

TensorFlow中全部张量而不只是占位符都是能够feed的,若是有feed,其优先级大于图中的计算流程。

相关文章
相关标签/搜索