最近遇到一个问题,几天没有思路,结果被同事一语道破,发现还是对api不熟,所以这里立个flag,最近把所有的tf.nn下的api全部看一遍。下次有问题直接先把api撸一遍再说。

下述内容全部来自于w2cschool,侵删。不过过两天就删除了哈哈。。

all_candidate_sampler(…):生成所有可能的类集合?看不懂先放放,官方描述如下:

Deterministically generates and returns the set of all possible classes. For testing purposes. There is no need to use this, since you might as well use full softmax or full logistic regression.

atrous_conv2d(value,filters,rate,padding,name=None):实现atrous卷积(空洞卷积)。

atrous_conv2d_transpose(…):atrous_conv2d的转置。

tf.nn.avg_pool(value, ksize, strides, padding, data_format=’NHWC’, name=None, input=None):对输入执行平均池化。

avg_pool1d(input,ksize,strides,padding,data_format=’NWC’,name=None) 在输入上执行1D平均池化

avg_pool3d(input,ksize,strides,padding,data_format=’NDHWC’,name=None):在输入上执行3D平均池化。

batch_norm_with_global_normalization(…):批量标准化,这个是旧版本被废弃,建议使用batch_normalization()。

batch_normalization(x,mean,variance,offset,scale,variance_epsilon,name=None):批量归一化。

bias_add(…):将bias向量添加到value矩阵上。注意是bias与矩阵的每一行进行相加,value的shape不变。

bidirectional_dynamic_rnn(…):创建双向递归神经网络的动态版本。

collapse_repeated(labels, seq_length, name=None):Merge repeated labels into single labels.

compute_accidental_hits(true_classes,sampled_candidates,num_true,seed=None,name=None): 猜也是mask的一种?官方描述如下:

In Candidate Sampling, this operation facilitates virtually removing sampled classes which happen to match target classes. This is done in Sampled Softmax and Sampled Logistic.

compute_average_loss(…):

Scales per-example losses with sample_weights and computes their average.

conv1d(value=None,filters=None,stride=None,padding=None,use_cudnn_on_gpu=None,data_format=None, name=None,input=None,dilations=None):一维卷积,input是3d。

conv1d_transpose(…):

conv2d(…):同上。

conv2d_backprop_filter(…):计算滤波器的卷积梯度。

conv2d_backprop_input(…):计算输入的卷积梯度。

conv2d_transpose(…):conv2d的转置.

conv3d(…):计算给定5-D输入和滤波器张量的3-D卷积.

conv3d_backprop_filter(…):计算滤波器的3d卷积梯度。

conv3d_transpose(…):conv3d的转置。

convolution(…):计算n维卷积的总和。

conv_transpose(…):convolution的转置。

crelu(…):Computes Concatenated ReLU。

—–4.22中午总结到此。

ctc_beam_search_decoder(…):对输入中给出的logits执行波束搜索解码.

ctc_greedy_decoder(…):对输入(最佳路径)中给出的logits执行贪婪解码.

ctc_loss(…):计算CTC(连接器时间分类)loss.

depthwise_conv2d(…):深度2-D卷积.

depthwise_conv2d_native(…):计算给定4-D输入和滤波器张量的2-D深度卷积.

depthwise_conv2d_native_backprop_filter(…):计算相对于滤波器的深度卷积的梯度.

depthwise_conv2d_native_backprop_input(…):计算相对于输入的深度卷积的梯度.

dilation2d(…):计算4-D输入和3-D滤波器张量的灰度扩张.

dropout(…):计算丢失.

dynamic_rnn(…):创建由RNNCell cell指定的递归神经网络.

elu(…):计算指数线性:exp(features) - 1,如果<0,则为features.

embedding_lookup(…):在嵌入式张量列表中查找ids.

embedding_lookup_sparse(…):计算给定ID和权重的嵌入.

erosion2d(…):计算4-D value和3-D kernel张量的灰度侵蚀.

fixed_unigram_candidate_sampler(…):使用提供的(固定)基本分布对一组类进行采样.

fractional_avg_pool(…):对输入执行小数平均池.

fractional_max_pool(…):对输入执行小数最大池.

fused_batch_norm(…):批量标准化.

in_top_k(…):说目标是否在最高K预测中.

l2_loss(…):L2 loss.

l2_normalize(…):使用L2范数沿维度axis规范化.(不赞成的参数)

leaky_relu(…):计算Leaky ReLU激活功能.

learned_unigram_candidate_sampler(…):从培训期间学习的分布中抽取一组类进行采样.

local_response_normalization(…):本地响应规范化.

log_poisson_loss(…):计算给定log_input的对数Poisson loss.

log_softmax(…):计算log softmax激活.(不赞成的参数)

log_uniform_candidate_sampler(…):使用对数统一(Zipfian)基本分布对一组类进行采样.

lrn(…):本地响应规范化.

max_pool(…):对输入执行最大池化.

max_pool3d(…):在输入上执行3D最大池化.

max_pool_with_argmax(…):对输入执行最大池化并输出最大值和索引.

moments(…):计算x的平均值和方差.

nce_loss(…):计算并返回噪声对比估计训练loss.

normalize_moments(…):根据足够的统计数据计算均值和方差.

pool(…):执行ND池操作.

quantized_avg_pool(…):为量化类型生成输入张量的平均池.

quantized_conv2d(…):计算给定量化4D输入和滤波器张量的2D卷积.

quantized_max_pool(…):为量化类型生成输入张量的最大池.

quantized_relu_x(…):计算量化整流线性X: min(max(features, 0), max_value)

raw_rnn(…):创建由RNNCell cell和循环函数loop_fn指定的RNN.

relu(…):计算Rectified线性:max(features, 0).

relu6(…):计算Rectified线性6 : min(max(features, 0), 6).

relu_layer(…):计算Relu(x * weight + biases).

sampled_softmax_loss(…):计算并返回采样的softmax训练损失.

selu(…):计算缩放指数线性:scale * alpha * (exp(features) - 1)

separable_conv2d(…):带可分离滤波器的2-D卷积.

sigmoid(…):计算x元素方式的sigmoid .

sigmoid_cross_entropy_with_logits(…):计算给出的sigmoid cross entropy logits.

softmax(…):计算softmax激活.(不赞成的参数)

softmax_cross_entropy_with_logits(…):计算logits和labels之间的softmax交叉熵.(废弃)

softmax_cross_entropy_with_logits_v2(…):计算logits和labels之间的softmax交叉熵.

softplus(…):计算softplus : log(exp(features) + 1).

softsign(…):计算softsign : features / (abs(features) + 1).

sparse_softmax_cross_entropy_with_logits(…):计算logits和labels之间的稀疏softmax交叉熵.

static_bidirectional_rnn(…):创建双向递归神经网络.

static_rnn(…):创建由RNNCell cell指定的递归神经网络.

static_state_saving_rnn(…):RNN接受状态保护程序进行时间截断的RNN计算.

sufficient_statistics(…):计算x的平均值和方差的足够统计量.

tanh(…):计算x元素的双曲正切值.

top_k(…):查找最后一个维度的k最大条目的值和索引.

uniform_candidate_sampler(…):使用统一的基本分布对一组类进行采样.

weighted_cross_entropy_with_logits(…):计算加权交叉熵.

weighted_moments(…):返回x的频率加权平均值和方差.

with_space_to_batch(…):对input的space-to-batch执行op.

xw_plus_b(…):计算matmul(x, weights) + biases.

zero_fraction(…):返回value中的零的分数.