tensorflow零起点快速入门(5) --强化学习摘录截图(tf与np)
tf.random_normal_initializer
tf的GraphKeys用法
tf.reduce_mean
tf.squared_difference
非tf中的zip,python的zip用法
非tf中的hstack,numpy的hstack用法
非tf中的newaxis,numpy的newaxis用法
非tf中的arange,numpy的arange用法
tf.nn.relu6
tf.nn.tanh
tf.distributions.Normal
log_prob---tf.distributions.Normal
熵的定义
tf.clip_by_value
tf.gradients
二维及以上矩阵取值运算
tf的softmax策略迭代与对应求导
非tf中的random.choice,numpy的random.choice用法
策略梯度的梯度上升问题
策略表示中的softmax
计算交叉熵
tf.truncated normal与tf.random normal
numpy的shape
numpy的ravel、flatten、squeeze数据拉平
numpy的zeros_like
原文地址:https://www.cnblogs.com/bai2018/p/12084498.html