tensorflow/threading 用到的一些函数

---恢复内容开始---

import tensorflow as tf

1    tf.squeeze([1,2,3,4])  删除所有为1的维度   eg shape从(1,2,3,1)到(2,3)

2    tf.distributions.normal(loc=0.0,scale=1.0)     loc 是高斯分布的μ,scale是标准差σ,返回的是一个正态分布

.sample(N) 从这个正态分布中选取N个数

.prob(a)  求在这个正态分布中选择a的概率

 tf.nn.softplus    计算激活函数softplus,即log( exp( features ) + 1)

4   threading.Event看成一个水闸

定义一个水闸:flag_event = threading.Event() 

创建一根水管,把水闸加载进去:t1 = threading.Thread(target=test, args=(flag_event,), name='flag') 

查看水闸状态:flag_event.is_set()返回Ture或False 

在水闸内增加水闸:flag_event.wait()  

开闸:flag_event.set() 

关闸:flag_event.clear() 

5   tensorflow中协调器 tf.train.Coordinator 和入队线程启动器 tf.train.start_queue_runners

Coordinator类用来管理在Session中的多个线程,可以用来同时停止多个工作线程并且向那个在等待所有工作线程终止的程序报告异常,该线程捕获到这个异常之后就会终止所有线程。使用 tf.train.Coordinator()来创建一个线程管理器(协调器)对象。

  1. 调用 tf.train.Coordinator() 来创建一个线程协调器,用来管理之后在Session中启动的所有线程;
  2. 使用 coord.should_stop()来查询是否应该终止所有线程
  3. 使用coord.request_stop()来发出终止所有线程的命令,使用coord.join(threads)把线程加入主线程,等待threads结束。

QueueRunner类用来启动tensor的入队线程,可以用来启动多个工作线程同时将多个tensor(训练数据)推送入文件名称队列中,具体执行函数是 tf.train.start_queue_runners , 只有调用 tf.train.start_queue_runners 之后,才会真正把tensor推入内存序列中,供计算单元调用,否则会由于内存序列为空,数据流图会处于一直等待状态。

threading.Thread.start()threading.Thread.run()

start()方法,开始线程活动,对每一个线程对象来说只能被调用一次,超过一次会引入RuntimeError(运行时错误)。

run()方法,代表了线程活动的方法,可以在子类中重写。标准run()方法调用了传递给对象的构造函数的可调对象作为目标参数,如果有这样的参数的话,顺序和关键字参数分别从args和kargs取得。

threading.Thread(target=worker,args=(i,))

第一个参数是函数名,第二个参数args是一个元组,如果只传递一个值,就只需要i, 如果需要传递多个参数,那么还可以继续传递下去其他的参数。特别注意其中的逗号不能少,少了就不是元组了,就会报错。

 

---恢复内容结束---

原文地址:https://www.cnblogs.com/lin-kid/p/10631641.html