tensorflow函数介绍(1)

tensorflow中的tensor表示一种数据结构,而flow则表现为一种计算模型,两者合起来就是通过计算图的形式来进行计算表述,其每个计算都是计算图上的一个节点,节点间的边表示了计算之间的依赖关系。一般的tensorflow程序分为两个阶段,在第一阶段定义计算图需要的变量,第二个阶段定义计算模型,最后通过执行计算来得到运行结果。

import tensorflow as tf

1、常数及矩阵

m1=tf.constant([[3.,3.]])     #产生两行一列的矩阵(创建一个常量tensor)
m2=tf.constant([[3.],[3.]])   #产生两列一行的矩阵
result=tf.matmul(m1,m2)    #矩阵相乘
sess=tf.Session()
sess.run(result)      #运行选中节点并返回值
sess.close()    #关闭会话
#其中sess=tf.session()和sess=tf.InteractiveSession()区别在于后者便于交互式,后者倾向于运算前提交整个计算图
tf.ones(shape=[2,2])     #维度为shape的全为1的矩阵
tf.zeros(shape=[3,3])    #维度为shape的全为0的矩阵
tf.constant([3.0, 3.0])    #产生常量列表,可sess.run()
tf.random_normal(shape=[2,2],stddev=2)    #产生正态分布随机数,stddev为标准差
tf.random_uniform(shape=[2,2],minval=0,maxval=None)   #产生均匀分布随机数,最小为...,最大为...
tf.fill([2,3],9) #对矩阵内容以9来填充
x=tf.constant([[1.,2.],[3.,4.]])
sess.run(tf.reduce_mean(x)) #reduce_mean 返回均值,若tf.reduce_mean(x,0)则返回第一行的均值,参数0改为1则返回第二行均值
x=tf.Variable([1.0, 2.0]) #创建变量列表(定义一个变量),不可直接sess.run() 
test=np.array([[1, 2, 3], [2, 3, 4], [5, 4, 3], [8, 7, 2]]) 
tf.argmax(test,0) #返回每一列最大项所在位置
tf.argmax(test,1) #返回每一行最大项所在位置
tf.cast(a,tf.float32) #将变量a转换为指定格式(tf.float32)
tf.group(a1,a2)
tf.shape(a) #返回a的维度
tf.reshape(a,[5,1]) #将a的维度转为[5,1]
#若a=[[[1, 1, 1],[2, 2, 2]],[[3, 3, 3],[4, 4, 4]],[[5, 5, 5],[6, 6, 6]]]
tf.reshape(a,[-1,9]) #则返回[[1, 1, 1, 2, 2, 2, 3, 3, 3], [4, 4, 4, 5, 5, 5, 6, 6, 6]]
tf.reshaoe(a,[2,-1]) #则返回[[1, 1, 1, 2, 2, 2, 3, 3, 3], [4, 4, 4, 5, 5, 5, 6, 6, 6]] 这里和上面的-1含义不需要我们指定维度的大小,函数会自动计算,但列表里只能有1个-1
tf.equal(a,b) #判断a和b是否相同,相同则返回True,否则返回False
tf.sqrt(x) # 对x开根号
tf.square(x) # x的平方
a=tf.constant([1,2,3])
b=tf.constant([4,5,6])
c=tf.stack([a,b],axis=0) #将a和b按照0轴合并
d=tf.unstack(c,axis=0) #将c按照0轴进行拆分
A=np.array([[1,2,3],[4,5,6]])
tf.transpose(A,[1,0]) #将A的0维和1维进行交换,也相当于转置
B=np.array([[[1,2,3],[4,5,6]]])
tf.transpose(B, [2,1,0]) #将B的0维、1维、1维进行替换,替换顺序从原来的[0,1,2]转换成[2,1,0],在该例中也就是第一维和第三维进行转换
tf.decode_raw(image,tf.uint8) #将tf.decode_raw可以将字符串转换成uint8的张量,其中tf.uint8为无符号整型,tf.int8为有符号整型

2、变量

#或者这样定义变量
w=np.array([[1,1,1],[2,2,2],[3,3,3]]) x=tf.Variable(initial_value=w) #先通过np定义,后导入tf init=tf.global_variables_initializer() #变量定义完后,显式地执行所有变量初始化操作才可进行下一步 with tf.Session() as sess: sess.run(init) print(sess.run(x))
w_2 = tf.get_variable(name="w_1",initializer=2) #定义变量w_1,初始化为2
sess.run(x.initializer)    #变量定义后也可以选择单个变量初始化,然而若需要初始化的变量过多,则选择上面的init=tf.global_variables_initializer()来进行初始化
sess.run(x) #继上再sess.run()
tf.get_variable(shape=[2,2],name='xiaoli') #判断是否存在该变量名,若存在则调用该变量,若不存在则创建名为name的变量
bias = tf.get_variable("bias", shape=[2,2],initializer=tf.zeros_initializer()) #变量初始化填补,以1来填充 tf.Variable(tf.random_normal(shape=[5,5],stddev=1),name='zhangsan') #创建初始变量
tf.Variable(tf.ones(3,3),name='cccc')
tf.Variable(tf.constant([1,2,3]),name='cccc')
a=tf.Variable(0,dtype=tf.float32)
tf.assign(a,2) #将2赋值给a
b=tf.assign_add(a,2) #将a的值加上2并将结果赋值给b
a=tf.Variable(tf.constant([1,2],shape=[1,2]),dtype=tf.int32) #在Variable步骤初始化a并设置a的维度
a=tf.Variable([1])
a.dtype() #返回tensor的数据类型
a.name #返回a的名称
a.graph #返回该tensor所在的图
a.op #返回产生该tensor的op
a.get_shape() #返回该tensor的shape
a.set_shape() #更新tensor的shape
a.device #设置计算该tensor的设备
a=tf.get_variable(name='a',shape=[1,2],initializer=tf.constant_initializer([1,2]))
tf.get_variable_scope().reuse_variables() #该操作使得tf.get_variable()变量可以重复构建
a=tf.get_variable(name='a',shape=[1,2],initializer=tf.constant_initializer([1,2]))

3、占位符

x=tf.placeholder(tf.float32,shape=[5,5])        #先占位置
y=tf.matmul(x,x)
with tf.Session() as sess:
    a=np.random.rand(5,5)           
    print(sess.run(y,feed_dict={x:a}))      #后通过sess.run()里的feed_dict进行填充

4、加减法和乘法

例1:

x=tf.Variable(tf.ones(shape=[3,3]))
y=tf.Variable(tf.ones(shape=[3,3]))
z=tf.matmul(x,y)                 #乘法
z=tf.add(x,y)             #加法
z=tf.subtract(x,y)             #减法
init=tf.global_variables_initializer()     
with tf.Session() as sess:
    sess.run(init)
    print(sess.run(z))

例2:

a=tf.placeholder(tf.int16)
b=tf.placeholder(tf.int16)
c=tf.add(a,b)
with tf.Session() as sess:
    print(sess.run(c,feed_dict={a:2,b:3}))

 5、tensor的连接及操作

a=[[1,1,1,1],[2,2,2,2],[3,3,3,3],[4,4,4,4]]
b1=tf.shape(a)
b2=tf.size(a)
b3=tf.reshape(a,[2,-1])
with tf.Session() as sess:
    print(sess.run(b1))           #获取维度
    print(sess.run(b2))          #获取size
    print(sess.run(b3))       #将原数据进行维度转换

t1 = [[1, 2, 3], [4, 5, 6]]
t2 = [[7, 8, 9], [10, 11, 12]]
with tf.Session() as sess:
    print(sess.run(tf.concat([t1,t2],0)))    #将t1和t2按照行合并,参数设置为0
    print(sess.run(tf.concat([t1,t2],1)))    #将t1和t2按照列合并,参数设置为1

  6、出现重复变量后的variable_scope()和name_scope()区别

(1)这里分别以name_scope()和variable_scope()的两个例子为例:
with tf.name_scope('name1'):
    var1=tf.Variable(name='var1',initial_value=[2],dtype=tf.float32)
    var2=tf.Variable(name='var1',initial_value=[2.2],dtype=tf.float32)
    var3=tf.Variable(name='var1',initial_value=[2.3],dtype=tf.float32)
with tf.Session() as sess:
    init=tf.global_variables_initializer()
    sess.run(init)
    print(var1.name)         #输出name1/var1:0
    print(sess.run(var1))   #输出[ 2.]
    print(var2.name)    #输出name1/var1_1:0
    print(sess.run(var2))   #输出[ 2.20000005]
    print(var3.name)    #输出name1/var1_2:0
    print(sess.run(var3))   #输出[ 2.29999995]
从上述结果可以发现,通过tf.name_scope()区域下,虽然变量重复定义,但其实生成了不同的变量名
with tf.variable_scope('bar') as scope:
    initializer=tf.constant_initializer(value=3) 
    var3=tf.get_variable(name='var3',shape=[1],initializer=initializer)
    scope.reuse_variables()
    var4=tf.get_variable(name='var3')
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    print(var3.name)   #输出bar/var3:0
    print(sess.run(var3))    #输出[ 3.]
    print(var4.name)   #输出bar/var3:0
    print(sess.run(var4))   #输出[ 3.]

 对于重复命名的变量,通过scope.reuse_variables()来处理

  (2)重复命名的变量的又一个例子(这次通过在variable_scope里增加参数reuse=True来重复提取变量)

import tensorflow as tf
with tf.variable_scope('layer1') as scope:
    weights=tf.get_variable('weight',[2,2],initializer=tf.constant_initializer(1.))
    x=tf.constant([1.,2.,1.,2.],shape=[2,2])
    layer1=tf.nn.relu(tf.matmul(x,weights))
with tf.variable_scope('layer1',reuse=True):
    weights=tf.get_variable('weight')        #tf.get_variable用于判断是否存在相同命名的变量,有则返回该变量,相反的tf.Variable用于每次都能创建新的变量
    x=tf.constant([3.,3.,3.,3.],shape=[2,2])
    layer2=tf.nn.relu(tf.matmul(x,weights))
sess=tf.Session()
init=tf.global_variables_initializer()
sess.run(init)
sess.run(layer1)
sess.run(layer2)

 7、group和tuple的使用

w = tf.Variable(1)
mul = tf.multiply(w, 2)
add = tf.add(w, 2)
group = tf.group(mul, add)   #group返回的是operation
tuple = tf.tuple([mul, add])   #tuple返回的是tensor(张量)
sess=tf.Session()
sess.run(w.initializer)
sess.run(group)   #不输出值
sess.run(tuple)     #返回的是mul和add的计算结果

 8、session.run和tensor.eval区别

参考来源:http://blog.csdn.net/zcf1784266476/article/details/70259676

假若有一个tensor,那么t.eval()等价于tf.get_default_session().run(t)

相比于t.eval,sess.run()可以一次获得多个tensor中的值,以如下为例:

t = tf.constant(42.0)
u = tf.constant(37.0)
tu = tf.multiply(t, u)
ut = tf.multiply(u, t)
init=tf.global_variables_initializer()
with sess.as_default():
    sess.run(init)
    print(tu.eval())  # runs one step
    print(ut.eval()) # runs one step
    print(sess.run([tu, ut]))

 9、tf.reduce_mean()和tf.expand_dims()

tf.trainable_variables()    #返回所有当前计算图中,在获取变量时未被标记trainable=False的变量集合
#设x为[[1.,2.],[3.,4.]]
tf.reduce_mean(x) #返回2.5
tf.reduce_mean(x,0) #返回[2.,3.],计算每列的均值
tf.reduce_mean(x,1) #返回[1.5,3.5],计算每行的均值
# 't' is a tensor of shape [2]
tf.shape(tf.expand_dims(t, 0)) ==> [1, 2]
tf.shape(tf.expand_dims(t, 1)) ==> [2, 1]
tf.shape(tf.expand_dims(t, -1)) ==> [2, 1]
# 't2' is a tensor of shape [2, 3, 5]
tf.shape(tf.expand_dims(t2, 0)) ==> [1, 2, 3, 5]
tf.shape(tf.expand_dims(t2, 2)) ==> [2, 3, 1, 5]
tf.shape(tf.expand_dims(t2, 3)) ==> [2, 3, 5, 1]

 10、tf.train.global_step

 首先构建变量来放global_step的值,trainable要设置为False,这样传播的时候就不会修改global_step的值。

 tf.train.global_step()用来获取当前sess的global_step值

建立global_step的过程如下:

global_step=tf.Variable(0,trainable=False,name='global_step')
global_step=tf.get_variable('global_step',[],initializer=tf.constant_initializer(0),trainable=False)

若是使用minimize,则将global_step作为参数传入minimize

global_step = tf.Variable(0,trainable=False)
increment_op = tf.assign_add(global_step,tf.constant(1))
sess = tf.Session()
init = tf.global_variables_initializer()
sess.run(init)
for step in range(0,10):
  ....
print(sess.run(increment_op)) #返回1 2 3 4 5 6 7 8 9 10
increase = tf.Variable(0, trainable=False, name='global_step')
for _ in range(10):
    increase=tf.assign_add(increase,tf.constant(1))
    sess = tf.Session()
    init=tf.global_variables_initializer()
    sess.run(init)
    print('global_step: %s' % tf.train.global_step(sess, increase))

 11、tf.slice() 取切片

import numpy as np
x=np.arange(24).reshape([2,3,4])  
begin_x=[1,0,0]
size_x=[1,2,3]            #分别表示从begin_x开始,在各维度取多少个元素
out=tf.slice(x,begin_x,size_x)
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    print(sess.run(out))
原文地址:https://www.cnblogs.com/xiaochouk/p/8305169.html