PaddlePaddle
- abs
- acos
- add
- add_n
- addmm
- all
- allclose
- any
- arange
- argmax
- argmin
- argsort
- asin
- assign
- atan
- bernoulli
- bmm
- broadcast_to
- cast
- ceil
- cholesky
- chunk
- clip
- concat
- conj
- cos
- cosh
- CPUPlace
- cross
- CUDAPinnedPlace
- CUDAPlace
- cumsum
- DataParallel
- diag
- disable_static
- dist
- divide
- dot
- empty
- empty_like
- enable_static
- equal
- equal_all
- erf
- exp
- expand
- expand_as
- eye
- flatten
- flip
- floor
- floor_divide
- flops
- full
- full_like
- gather
- gather_nd
- get_cuda_rng_state
- get_cudnn_version
- get_default_dtype
- get_device
- grad
- greater_equal
- greater_than
- histogram
- imag
- in_dynamic_mode
- increment
- index_sample
- index_select
- inverse
- is_compiled_with_cuda
- is_compiled_with_xpu
- is_empty
- is_tensor
- isfinite
- isinf
- isnan
- kron
- less_equal
- less_than
- linspace
- load
- log
- log10
- log1p
- log2
- logical_and
- logical_not
- logical_or
- logical_xor
- logsumexp
- masked_select
- matmul
- max
- maximum
- mean
- median
- meshgrid
- min
- minimum
- mm
- mod
- Model
- multinomial
- multiplex
- multiply
- mv
- no_grad
- nonzero
- norm
- normal
- not_equal
- numel
- ones
- ones_like
- ParamAttr
- pow
- prod
- rand
- randint
- randn
- randperm
- rank
- real
- reciprocal
- reshape
- reshape_
- roll
- round
- rsqrt
- save
- scale
- scatter
- scatter_
- scatter_nd
- scatter_nd_add
- seed
- set_cuda_rng_state
- set_default_dtype
- set_device
- shape
- shard_index
- sign
- sin
- sinh
- slice
- sort
- split
- sqrt
- square
- squeeze
- squeeze_
- stack
- stanh
- std
- strided_slice
- subtract
- sum
- summary
- t
- tan
- tanh
- tanh_
- Tensor
- tile
- to_tensor
- topk
- trace
- transpose
- tril
- triu
- unbind
- uniform
- unique
- unsqueeze
- unsqueeze_
- unstack
- var
- where
- XPUPlace
- zeros
- zeros_like
- create_lod_tensor
- create_random_int_lodtensor
- cuda_pinned_places
- data
- DataFeedDesc
- DataFeeder
- device_guard
- DistributeTranspiler
- DistributeTranspilerConfig
- get_flags
-
- adaptive_pool2d
- adaptive_pool3d
- add_position_encoding
- affine_channel
- affine_grid
- anchor_generator
- argmax
- argmin
- argsort
- array_length
- array_read
- array_write
- assign
- autoincreased_step_counter
- BasicDecoder
- beam_search
- beam_search_decode
- bipartite_match
- box_clip
- box_coder
- box_decoder_and_assign
- bpr_loss
- brelu
- Categorical
- center_loss
- clip
- clip_by_norm
- collect_fpn_proposals
- concat
- cond
- continuous_value_model
- cosine_decay
- create_array
- create_py_reader_by_data
- create_tensor
- crop
- crop_tensor
- cross_entropy
- ctc_greedy_decoder
- cumsum
- data
- DecodeHelper
- Decoder
- deformable_conv
- deformable_roi_pooling
- density_prior_box
- detection_output
- diag
- distribute_fpn_proposals
- double_buffer
- dropout
- dynamic_gru
- dynamic_lstm
- dynamic_lstmp
- DynamicRNN
- edit_distance
- elementwise_add
- elementwise_div
- elementwise_floordiv
- elementwise_max
- elementwise_min
- elementwise_mod
- elementwise_pow
- elementwise_sub
- elu
- embedding
- equal
- expand
- expand_as
- exponential_decay
- eye
- fc
- fill_constant
- filter_by_instag
- flatten
- fsp_matrix
- gather
- gather_nd
- gaussian_random
- gelu
- generate_mask_labels
- generate_proposal_labels
- generate_proposals
- get_tensor_from_selected_rows
- greater_equal
- greater_than
- GreedyEmbeddingHelper
- grid_sampler
- gru_unit
- GRUCell
- hard_shrink
- hard_sigmoid
- hard_swish
- has_inf
- has_nan
- hash
- hsigmoid
- huber_loss
- IfElse
- im2sequence
- image_resize
- image_resize_short
- increment
- inplace_abn
- inverse_time_decay
- iou_similarity
- isfinite
- kldiv_loss
- l2_normalize
- label_smooth
- leaky_relu
- less_equal
- less_than
- linear_chain_crf
- linear_lr_warmup
- locality_aware_nms
- lod_append
- lod_reset
- logsigmoid
- lrn
- lstm
- lstm_unit
- LSTMCell
- margin_rank_loss
- matmul
- matrix_nms
- maxout
- mean
- merge_selected_rows
- mse_loss
- mul
- multiclass_nms
- MultivariateNormalDiag
- natural_exp_decay
- noam_decay
- Normal
- not_equal
- one_hot
- ones
- ones_like
- pad
- pad2d
- pad_constant_like
- piecewise_decay
- pixel_shuffle
- polygon_box_transform
- polynomial_decay
- pool2d
- pool3d
- pow
- prior_box
- prroi_pool
- psroi_pool
- py_reader
- random_crop
- range
- rank_loss
- read_file
- reduce_all
- reduce_any
- reduce_max
- reduce_mean
- reduce_min
- reduce_prod
- reduce_sum
- relu
- relu6
- reorder_lod_tensor_by_rank
- reshape
- resize_bilinear
- resize_nearest
- resize_trilinear
- retinanet_detection_output
- retinanet_target_assign
- reverse
- rnn
- RNNCell
- roi_align
- roi_perspective_transform
- roi_pool
- rpn_target_assign
- sampled_softmax_with_cross_entropy
- SampleEmbeddingHelper
- sampling_id
- scatter
- selu
- sequence_concat
- sequence_conv
- sequence_enumerate
- sequence_expand
- sequence_expand_as
- sequence_first_step
- sequence_last_step
- sequence_mask
- sequence_pad
- sequence_pool
- sequence_reshape
- sequence_reverse
- sequence_scatter
- sequence_slice
- sequence_softmax
- sequence_unpad
- shuffle_channel
- sigmoid_cross_entropy_with_logits
- sigmoid_focal_loss
- sign
- similarity_focus
- size
- smooth_l1
- soft_relu
- softmax
- softplus
- softshrink
- softsign
- space_to_depth
- split
- squeeze
- ssd_loss
- stack
- StaticRNN
- strided_slice
- sum
- sums
- swish
- Switch
- tanh
- tanh_shrink
- target_assign
- teacher_student_sigmoid_loss
- tensor_array_to_tensor
- thresholded_relu
- topk
- TrainingHelper
- unbind
- Uniform
- uniform_random
- unique
- unique_with_counts
- unsqueeze
- warpctc
- where
- While
- while_loop
- yolo_box
- yolov3_loss
- zeros
- zeros_like
- load_op_library
- LoDTensor
- LoDTensorArray
- memory_optimize
- one_hot
- release_memory
- require_version
- set_flags
- Tensor
- Overview
- AdaptiveAvgPool1D
- AdaptiveAvgPool2D
- AdaptiveAvgPool3D
- AdaptiveMaxPool1D
- AdaptiveMaxPool2D
- AdaptiveMaxPool3D
- AlphaDropout
- AvgPool1D
- AvgPool2D
- AvgPool3D
- BatchNorm
- BatchNorm1D
- BatchNorm2D
- BatchNorm3D
- BCELoss
- BCEWithLogitsLoss
- BeamSearchDecoder
- Bilinear
- BiRNN
- ClipGradByGlobalNorm
- ClipGradByNorm
- ClipGradByValue
- Conv1D
- Conv1DTranspose
- Conv2D
- Conv2DTranspose
- Conv3D
- Conv3DTranspose
- CosineSimilarity
- CrossEntropyLoss
- CTCLoss
- Dropout
- Dropout2D
- Dropout3D
- dynamic_decode
- ELU
- Embedding
- Flatten
-
- adaptive_avg_pool1d
- adaptive_avg_pool2d
- adaptive_avg_pool3d
- adaptive_max_pool1d
- adaptive_max_pool2d
- adaptive_max_pool3d
- affine_grid
- alpha_dropout
- avg_pool1d
- avg_pool2d
- avg_pool3d
- batch_norm
- bilinear
- binary_cross_entropy
- binary_cross_entropy_with_logits
- conv1d
- conv1d_transpose
- conv2d
- conv2d_transpose
- conv3d
- conv3d_transpose
- cosine_similarity
- cross_entropy
- ctc_loss
- diag_embed
- dice_loss
- dropout
- dropout2d
- dropout3d
- elu
- elu_
- embedding
- gather_tree
- gelu
- grid_sample
- hardshrink
- hardsigmoid
- hardswish
- hardtanh
- hsigmoid_loss
- instance_norm
- interpolate
- kl_div
- l1_loss
- label_smooth
- layer_norm
- leaky_relu
- linear
- local_response_norm
- log_loss
- log_sigmoid
- log_softmax
- margin_ranking_loss
- max_pool1d
- max_pool2d
- max_pool3d
- maxout
- mse_loss
- nll_loss
- normalize
- npair_loss
- one_hot
- pad
- pixel_shuffle
- prelu
- relu
- relu6
- relu_
- selu
- sigmoid
- sigmoid_focal_loss
- smooth_l1_loss
- softmax
- softmax_
- softmax_with_cross_entropy
- softplus
- softshrink
- softsign
- square_error_cost
- swish
- tanhshrink
- temporal_shift
- thresholded_relu
- unfold
- upsample
- GELU
- GroupNorm
- GRU
- GRUCell
- Hardshrink
- Hardsigmoid
- Hardswish
- Hardtanh
- HSigmoidLoss
- InstanceNorm1D
- InstanceNorm2D
- InstanceNorm3D
- KLDivLoss
- L1Loss
- Layer
- LayerList
- LayerNorm
- LeakyReLU
- Linear
- LocalResponseNorm
- LogSigmoid
- LogSoftmax
- LSTM
- LSTMCell
- MarginRankingLoss
- Maxout
- MaxPool1D
- MaxPool2D
- MaxPool3D
- MSELoss
- MultiHeadAttention
- NLLLoss
- Pad1D
- Pad2D
- Pad3D
- PairwiseDistance
- ParameterList
- PixelShuffle
- PReLU
- ReLU
- ReLU6
- RNN
- RNNCellBase
- SELU
- Sequential
- Sigmoid
- SimpleRNN
- SimpleRNNCell
- SmoothL1Loss
- Softmax
- Softplus
- Softshrink
- Softsign
- SpectralNorm
- Swish
- SyncBatchNorm
- Tanh
- Tanhshrink
- ThresholdedReLU
- Transformer
- TransformerDecoder
- TransformerDecoderLayer
- TransformerEncoder
- TransformerEncoderLayer
- Upsample
- UpsamplingBilinear2D
- UpsamplingNearest2D
- append_backward
- BuildStrategy
- CompiledProgram
- cpu_places
- create_global_var
- create_parameter
- cuda_places
- data
- default_main_program
- default_startup_program
- deserialize_persistables
- deserialize_program
- device_guard
- ExecutionStrategy
- Executor
- global_scope
- gradients
- InputSpec
- load
- load_from_file
- load_inference_model
- load_program_state
- name_scope
- ParallelExecutor
- Program
- program_guard
- py_func
- save
- save_inference_model
- save_to_file
- scope_guard
- serialize_persistables
- serialize_program
- set_program_state
- Variable
- WeightNormParamAttr
-
- adjust_brightness
- adjust_contrast
- adjust_hue
- adjust_saturation
- BaseTransform
- BrightnessTransform
- center_crop
- CenterCrop
- ColorJitter
- Compose
- ContrastTransform
- crop
- Grayscale
- hflip
- HueTransform
- Normalize
- normalize
- Pad
- pad
- RandomCrop
- RandomHorizontalFli
- RandomResizedCrop
- RandomRotation
- RandomVerticalFlip
- Resize
- resize
- rotate
- SaturationTransform
- to_grayscale
- to_tensor
- ToTensor
- Transpose
- vflip
paddle.nn / Overview
paddle.nn¶
paddle.nn 目录下包含飞桨框架支持的神经网络层和相关函数的相关API。具体如下:
容器相关¶
API名称 |
API功能 |
---|---|
|
基于OOD实现的动态图Layer |
|
用于保存子层列表 |
|
参数列表容器 |
|
顺序容器;子Layer将按构造函数参数的顺序添加到此容器中 |
卷积层¶
API名称 |
API功能 |
---|---|
|
一维卷积层 |
|
一维转置卷积层 |
|
二维卷积层 |
|
二维转置卷积层 |
|
三维卷积层 |
|
三维转置卷积层 |
pooling层¶
API名称 |
API功能 |
---|---|
|
一维自适应平均池化层 |
|
二维自适应平均池化层 |
|
三维自适应平均池化层 |
|
一维自适应最大池化层 |
|
二维自适应最大池化层 |
|
三维自适应最大池化层 |
|
一维平均池化层 |
|
二维平均池化层 |
|
三维平均池化层 |
|
一维最大池化层 |
|
二维最大池化层 |
|
三维最大池化层 |
Padding层¶
API名称 |
API功能 |
---|---|
|
一维填充层 |
|
二维填充层 |
|
三维填充层 |
激活层¶
API名称 |
API功能 |
---|---|
|
ELU激活层 |
|
GELU激活层 |
|
Hardshrink激活层 |
|
Hardsigmoid激活层 |
|
Hardswish激活层 |
|
Hardtanh激活层 |
|
LeakyReLU 激活层 |
|
LogSigmoid激活层 |
|
LogSoftmax激活层 |
|
Maxout激活层 |
|
PReLU激活层 |
|
ReLU激活层 |
|
ReLU6激活层 |
|
SELU激活层 |
|
Sigmoid激活层 |
|
Softmax激活层 |
|
Softplus激活层 |
|
Softshrink激活层 |
|
Softsign激活层 |
|
Swish激活层 |
|
Tanh激活层 |
|
Tanhshrink激活层 |
|
Thresholded ReLU激活层 |
Normalization层¶
API名称 |
API功能 |
---|---|
|
Batch Normalization层 |
|
一维Batch Normalization层 |
|
二维Batch Normalization层 |
|
三维Batch Normalization层 |
|
Group Normalization层 |
|
一维Instance Normalization层 |
|
二维Instance Normalization层 |
|
三维Instance Normalization层 |
|
用于保存Normalization层列表 |
|
Local Response Normalization层 |
|
Spectral Normalization层 |
|
Synchronized Batch Normalization层 |
循环神经网络层¶
API名称 |
API功能 |
---|---|
|
双向循环神经网络 |
|
门控循环单元网络 |
|
门控循环单元 |
|
长短期记忆网络 |
|
长短期记忆网络单元 |
|
循环神经网络 |
|
循环神经网络单元基类 |
|
简单循环神经网络 |
|
简单循环神经网络单元 |
Transformer相关¶
API名称 |
API功能 |
---|---|
|
多头注意力机制 |
|
Transformer模型 |
|
Transformer解码器 |
|
Transformer解码器层 |
|
Transformer编码器 |
|
Transformer编码器层 |
线性层¶
API名称 |
API功能 |
---|---|
|
对两个输入执行双线性张量积 |
|
线性变换层 |
Dropout层¶
API名称 |
API功能 |
---|---|
|
具有自归一化性质的dropout |
|
Dropout |
|
一维Dropout |
|
二维Dropout |
Embedding层¶
API名称 |
API功能 |
---|---|
|
嵌入层(Embedding Layer) |
Loss层¶
API名称 |
API功能 |
---|---|
|
BCELoss层 |
|
BCEWithLogitsLoss层 |
|
交叉熵损失层 |
|
CTCLoss层 |
|
层次sigmoid损失层 |
|
Kullback-Leibler散度损失层 |
|
L1损失层 |
|
MarginRankingLoss层 |
|
均方差误差损失层 |
|
NLLLoss层 |
|
平滑L1损失层 |
Vision层¶
API名称 |
API功能 |
---|---|
|
将一个形为[N, C, H, W]或是[N, H, W, C]的Tensor重新排列成形为 [N, C/r**2, H*r, W*r]或 [N, H*r, W*r, C/r**2] 的Tensor |
|
用于调整一个batch中图片的大小 |
|
用于调整一个batch中图片的大小(使用双线性插值方法) |
|
用于调整一个batch中图片的大小(使用最近邻插值方法) |
Clip相关¶
API名称 |
API功能 |
---|---|
|
将一个 Tensor列表 t_list 中所有Tensor的L2范数之和,限定在 clip_norm 范围内 |
|
将输入的多维Tensor X 的L2范数限制在 clip_norm 范围之内 |
|
将输入的多维Tensor X 的值限制在 [min, max] 范围 |
公共层¶
API名称 |
API功能 |
---|---|
|
带beam search解码策略的解码器 |
|
余弦相似度计算 |
|
循环解码 |
|
将一个连续维度的Tensor展平成一维Tensor |
|
计算两个向量之间pairwise的距离 |
卷积相关函数¶
API名称 |
API功能 |
---|---|
|
一维卷积函数 |
|
一维转置卷积函数 |
|
二维卷积函数 |
|
二维转置卷积函数 |
|
三维卷积函数 |
|
三维转置卷积函数 |
Pooling相关函数¶
API名称 |
API功能 |
---|---|
|
一维自适应平均池化 |
|
二维自适应平均池化 |
|
三维自适应平均池化 |
|
一维自适应最大池化 |
|
一维平均池化 |
|
二维平均池化 |
|
三维平均池化 |
|
一维最大池化 |
|
二维最大池化 |
|
三维最大池化 |
Padding相关函数¶
API名称 |
API功能 |
---|---|
|
依照 pad 和 mode 属性对input进行填充 |
激活函数¶
API名称 |
API功能 |
---|---|
|
elu激活函数 |
|
gelu激活函数 |
|
hardshrink激活函数 |
|
sigmoid的分段线性逼近激活函数 |
|
hardswish激活函数 |
|
hardtanh激活函数 |
|
leaky_relu激活函数 |
|
log_sigmoid激活函数 |
|
log_softmax激活函数 |
|
maxout激活函数 |
|
prelu激活函数 |
|
relu激活函数 |
|
relu6激活函数 |
|
selu激活函数 |
|
sigmoid激活函数 |
|
softmax激活函数 |
|
softplus激活函数 |
|
softshrink激活函数 |
|
softsign激活函数 |
|
swish激活函数 |
|
tanhshrink激活函数 |
|
thresholded_relu激活函数 |
Normalization方法¶
API名称 |
API功能 |
---|---|
|
Batch Normalization方法 |
|
Instance Normalization方法 |
|
Layer Normalization方法 |
|
Local Response Normalization函数 |
|
归一化方法 |
|
移除传入 layer 中的权重归一化 |
|
对传入的 layer 中的权重参数进行归一化 |
线性处理相关函数¶
API名称 |
API功能 |
---|---|
|
对两个输入执行双线性张量积 |
|
线性变换 |
|
线性学习率热身(warm up) |
Dropout方法¶
API名称 |
API功能 |
---|---|
|
一种具有自归一化性质的dropout |
|
Dropout |
|
一维Dropout |
|
二维Dropout |
Embedding相关函数¶
API名称 |
API功能 |
---|---|
|
对角线Embedding 方法 |
|
Embedding 方法 |
损失函数¶
API名称 |
API功能 |
---|---|
|
二值交叉熵损失值 |
|
logits二值交叉熵损失值 |
|
用于计算ctc损失 |
|
用于比较预测结果跟标签之间的相似度 |
|
层次sigmoid损失函数 |
|
用于计算L1损失 |
|
用于计算KL散度损失 |
|
用于计算负对数损失 |
|
为所有示例采样若干个样本,并计算每行采样张量的SoftMax标准化值,然后计算交叉熵损失 |
|
用于计算margin rank loss 损失 |
|
用于计算均方差误差 |
|
用于计算nll损失 |
|
成对数据损失计算 |
|
用于计算分类任务中前景类-背景类数量不均衡问题的损失 |
|
用于计算平滑L1损失 |
|
将softmax操作、交叉熵损失函数的计算过程进行合并 |
|
用于SSD物体检测算法的多窗口损失计算 |
公用方法¶
API名称 |
API功能 |
---|---|
|
将输入inpu中每个位置(序列中的位置)的特征与对应的位置编码加权求和 |
|
对输入的每个 channel 应用单独的仿射变换 |
|
用于生成仿射变换前后的feature maps的坐标映射关系 |
|
将输入Tensor或numpy数组拷贝至输出Tensor |
|
用于计算x1与x2沿axis维度的余弦相似度 |
|
计算输入input和标签label间的交叉熵 |
|
给定回归位置偏移、置信度以及先验框信息计算检测的输出 |
|
Feature Pyramid Networks(FPN)模型中依据proposal的尺度和参考尺度与级别将所有proposal分配到不同的FPN级别中 |
|
用于调整一个batch中图片的大小 |
|
计算两个框列表的intersection-over-union(IOU) |
|
标签平滑 |
|
计算一批给定字符串及其参照字符串间的编辑距离 |
|
将输入'x'中的每个id转换为一个one-hot向量 |
|
将Tensor重新排列 |
|
对成块的空间数据进行重组 |
|
用于计算预测值和目标值的方差估计 |
|
对每一个卷积核覆盖下的区域,将元素重新排成一列 |
初始化相关¶
API名称 |
API功能 |
---|---|
|
使用Numpy数组、Python列表、Tensor来初始化参数 |
|
该接口为参数初始化函数,用于转置卷积函数中 |
|
用于权重初始化,通过输入的value值初始化输入变量 |
|
实现Kaiming正态分布方式的权重初始化 |
|
实现Kaiming均匀分布方式的权重初始化 |
|
随机正态(高斯)分布初始化函数 |
|
用于设置Paddle框架中全局的参数初始化方法 |
|
随机截断正态(高斯)分布初始化函数 |
|
随机均匀分布初始化函数 |
|
实现Xavier权重初始化方法( Xavier weight initializer) |
|
实现Xavier权重初始化方法( Xavier weight initializer) |
此页内容是否对您有帮助
感谢反馈!