文档章节

学习笔记TF007:Tensor、Graph、Op、Variable、占位符、Session、名称作用域、Board综合例子

利炳根
 利炳根
发布于 2017/05/13 21:43
字数 1537
阅读 23
收藏 0

输入采用占位符,模型接收任意长度向量,随时间计算数据流图所有输出总和,采用名称作用域合理划分数据流图,每次运行保存数据流图输出、累加、均值到磁盘。

[None]代表任意长度向量,[]代表标量。update环节更新各Variable对象以及将数据传入TensorBoard汇总Op。与交换工作流分开,独立名称作用域包含Variable对象,存储输出累加和,记录数据流图运行次数。独立名称作用域包含TensorBoard汇总数据,tf.scalar_summary Op。汇总数据在Variable对象更新完成后才添加。

构建数据流图。 导入TensorFlow库。Graph类构造方法tf.Graph(),显式创建Graph对象。两个“全局”Variable对象,追踪模型运行次数,追踪模型所有输出累加和。与其他节点区分开,放入独立名称作用域。trainable=False设置明确指定Variable对象只能手工设置。 模型核心的变换计算,封装到名称作用域"transformation",又划分三个子名称作用域"input"、"intermediate_layer"、"output"。.multiply、.add只能接收标量参数,.reduce_prod、. reduce_sum可以接收向量参数。 在"update"名称作用域内更新Variable对象。.assign_add实现Variable对象递增。 在"summaries"名称作用域内汇总数据供TensorBoard用。.cast()做数据类型转换。.summary.scalar()做标量数据汇总。 在"global_ops"名称作用域创建全局Operation(Op)。初始化所有Variable对象。合并所有汇总数据。

运行数据流图。 .Session()启动Session对象,graph属性加载Graph对象,.summary.FileWriter()启动FileWriter对象,保存汇总数据。 初始化Variable对象。 创建运行数据流图辅助函数,传入向量,运行数据流图,保存汇总数据。创建feed_dict参数字典,以input_tensor替换a句柄的tf.placeholder节点值。使用feed_dict运行output不关心存储,运行increment_step保存到step,运行merged_summaries Op保存到summary。添加汇总数据到FileWriter对象,global_step参数随时间图示折线图横轴。 变换向量长度多次调用运行数据流图辅助函数。.flush()把汇总数据写入磁盘。

查看数据流图。 Graph标签,变换运算流入update方框,为summaries、variables提供输入,global_ops包含变换计算非关键运算。输入层、中间层、输出层分离。 Scalars标签,summary.scalar对象标签查看不同时间点汇总数据变化。

import tensorflow as tf#导入TensorFlow库
#构建数据流图
graph = tf.Graph()#显式创建Graph对象
with graph.as_default():#设为默认Graph对象
with tf.name_scope("variables"):#创建Variable对象名称作用域
    global_step = tf.Variable(0, dtype=tf.int32, trainable=False, name="global_step")#记录数据流图运行次数的Variable对象,初值为0,数据类型为32位整型,不可自动修改,以global_step标识
    total_output = tf.Variable(0.0, dtype=tf.float32, trainable=False, name="total_output")#追踪模型所有输出累加和的Variable对象,初值为0.0,数据类型为32位浮点型,不可自动修改,以total_output标识
with tf.name_scope("transformation"):#创建变换计算Op名称作用域
    with tf.name_scope("input"):#创建独立输入层名称作用域
        a = tf.placeholder(tf.float32, shape=[None], name="input_placeholder_a")#创建占位符,接收一个32位浮点型任意长度的向量作为输入,以input_placeholder_a标识
    with tf.name_scope("intermediate_layer"):#创建独立中间层名称作用域
        b = tf.reduce_prod(a, name="product_b")#创建创建归约乘积Op,接收张量输入,输出张量所有分量(元素)的乘积,以product_b标识
        c = tf.reduce_sum(a, name="sum_c")#创建创建归约求和Op,接收张量输入,输出张量所有分量(元素)的求和,以sum_c标识
    with tf.name_scope("output"):#创建独立输出层名称作用域
        output = tf.add(b, c, name="output")#创建创建求和Op,接收两个标量输入,输出标量求和,以output标识
with tf.name_scope("update"):
    update_total = total_output.assign_add(output)#用最新的输出更新Variable对象total_output
    increment_step = global_step.assign_add(1)#增1更新Variable对象global_step,记录数据流图运行次数
with tf.name_scope("summaries"):#创建数据汇总Op名称作用域
    avg = tf.div(update_total, tf.cast(increment_step, tf.float32), name="average")#计算平均值,输出累加和除以数据流图运行次数,把运行次数数据类型转换为32位浮点型,以average标识
    tf.summary.scalar(b'output_summary',output)#创建输出节点标量数据统计汇总,以output_summary标识
    tf.summary.scalar(b'total_summary',update_total)#创建输出累加求和标量数据统计汇总,以total_summary标识
    tf.summary.scalar(b'average_summary',avg)#创建平均值标量数据统计汇总,以average_summary标识
with tf.name_scope("global_ops"):#创建全局Operation(Op)名称作用域
    init = tf.global_variables_initializer()#创建初始化所有Variable对象的Op
    merged_summaries = tf.summary.merge_all()#创建合并所有汇总数据的Op
#运行数据流图
sess = tf.Session(graph=graph)#用显式创建Graph对象启动Session会话对象
writer = tf.summary.FileWriter('./improved_graph', graph)#启动FileWriter对象,保存汇总数据
sess.run(init)#运行Variable对象初始化Op
def run_graph(input_tensor):#定义数据注图运行辅助函数
    """
    辅助函数:用给定的输入张量运行数据流图,
    并保存汇总数据
    """
    feed_dict = {a: input_tensor}#创建feed_dict参数字典,以input_tensor替换a句柄的tf.placeholder节点值
    _, step, summary = sess.run([output, increment_step, merged_summaries], feed_dict=feed_dict)#使用feed_dict运行output不关心存储,运行increment_step保存到step,运行merged_summaries Op保存到summary
    writer.add_summary(summary, global_step=step)#添加汇总数据到FileWriter对象,global_step参数时间图示折线图横轴
#用不同的输入用例运行数据流图
run_graph([2,8])
run_graph([3,1,3,3])
run_graph([8])
run_graph([1,2,3])
run_graph([11,4])
run_graph([4,1])
run_graph([7,3,1])
run_graph([6,3])
run_graph([0,2])
run_graph([4,5,6])
writer.flush()#将汇总数据写入磁盘
writer.close()#关闭FileWriter对象,释放资源
sess.close()#关闭Session对象,释放资源

WX20170513-142835@2x.png graph?run=-8.png graph?run=-9.png

参考资料: 《面向机器智能的TensorFlow实践》

欢迎加我微信交流:qingxingfengzi

我的微信公众号:qingxingfengzigz

我老婆张幸清的微信公众号:qingqingfeifangz

© 著作权归作者所有

利炳根
粉丝 11
博文 60
码字总数 136346
作品 0
深圳
私信 提问
TensorFlow 基础知识

参考资料: 深度学习笔记目录 向机器智能的TensorFlow实践 TensorFlow机器学习实战指南 Nick的博客 TensorFlow 采用数据流图进行数值计算。节点代表计算图中的数学操作,计算图的边表示多维数...

xinet
2017/11/23
0
0
TensorFlow 人工智能引擎 入门教程之一 基本概念以及理解

首先大家看2 张图片 在0.8版本时候已经支持分布式了 ,所以未来的发展 方面 人工智能的趋势 不可挡,而且个人也是非常喜欢caffe 以及 tensorFlow 的我创业 用的就用到了它。 下面我们来讲一下...

zhuyuping
2016/04/14
31.9K
0
TensorFlow——入门基础

TensorFlow原理: TensorFlow使用Graph来描述计算任务,图中的节点被称之为op.一个op可以接受0或多个tensor作为输入,也可产生0或多个tensor作为输出.任何一个Graph要想运行,都必须借助上下文S...

飞天小橘子
2018/04/19
0
0
初遇 Tensorflow

TensorFlow 特性 高度的灵活性:向上扩展(python)、向下扩展(C++)非常方便; 真正的可移植性:多种设备可用,Desktop、Server、mobile,cloud 都可运行; 连接研究与生产:研究成果可以快...

逸尘白狼
2017/07/04
0
0
斯坦福CS20 TensorFlow学习笔记(2):TensorFlow Ops

上一节我们介绍了graph、tensor和session,这一节主要介绍operation。主要内容有: TensorBoard的基本用法 Basic operations Tensor types Importing data Lazy loading 1- Visualize it wi...

毛帅同学
2018/08/29
0
0

没有更多内容

加载失败,请刷新页面

加载更多

关于AsyncTask的onPostExcute方法是否会在Activity重建过程中调用的问题

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/XG1057415595/article/details/86774575 假设下面一种情况...

shzwork
今天
6
0
object 类中有哪些方法?

getClass(): 获取运行时类的对象 equals():判断其他对象是否与此对象相等 hashcode():返回该对象的哈希码值 toString():返回该对象的字符串表示 clone(): 创建并返此对象的一个副本 wait...

happywe
今天
6
0
Docker容器实战(七) - 容器中进程视野下的文件系统

前两文中,讲了Linux容器最基础的两种技术 Namespace 作用是“隔离”,它让应用进程只能看到该Namespace内的“世界” Cgroups 作用是“限制”,它给这个“世界”围上了一圈看不见的墙 这么一...

JavaEdge
今天
8
0
文件访问和共享的方法介绍

在上一篇文章中,你了解到文件有三个不同的权限集。拥有该文件的用户有一个集合,拥有该文件的组的成员有一个集合,然后最终一个集合适用于其他所有人。在长列表(ls -l)中这些权限使用符号...

老孟的Linux私房菜
今天
7
0
面试套路题目

作者:抱紧超越小姐姐 链接:https://www.nowcoder.com/discuss/309292?type=3 来源:牛客网 面试时候的潜台词 抱紧超越小姐姐 编辑于 2019-10-15 16:14:56APP内打开赞 3 | 收藏 4 | 回复24 ...

MtrS
今天
5
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部