PaddlePaddle

 paddle.nn / MultiHeadAttention


MultiHeadAttention

class paddle.nn. MultiHeadAttention ( embed_dim, num_heads, dropout=0.0, kdim=None, vdim=None, need_weights=False, weight_attr=None, bias_attr=None ) [源代码]

多头注意力机制

注意力机制可以将查询(Query)与一组键值对(Key-Value)映射到输出。而多头注意力机制是将注意力机制的计算过程计算多次,以便模型提取不同子空间的信息。

细节可参考论文 Attention is all you need

参数:
  • embed_dim (int) - 输入输出的维度。

  • num_heads (int) - 多头注意力机制的Head数量。

  • dropout (float,可选) - 注意力目标的随机失活率。0表示不加dropout。默认值:0。

  • kdim (int,可选) - 键值对中key的维度。如果为 Nonekdim = embed_dim。默认值:None

  • vdim (int,可选) - 键值对中value的维度。如果为 Nonekdim = embed_dim。默认值:None

  • need_weights (bool, 可选) - 表明是否返回注意力权重。默认值:False

  • weight_attr (ParamAttr,可选) - 指定权重参数属性的对象。默认值:None,表示使用默认的权重参数属性。具体用法请参见 ParamAttr

  • bias_attr (ParamAttr,可选)- 指定偏置参数属性的对象。默认值:None,表示使用默认的偏置参数属性。具体用法请参见 ParamAttr

代码示例

import paddle
from paddle.nn import MultiHeadAttention

# encoder input: [batch_size, sequence_length, d_model]
query = paddle.rand((2, 4, 128))
# self-attention mask: [batch_size, num_heads, query_len, query_len]
attn_mask = paddle.rand((2, 2, 4, 4))
multi_head_attn = MultiHeadAttention(128, 2)
output = multi_head_attn(query, None, None, attn_mask=attn_mask)  # [2, 4, 128]

此页内容是否对您有帮助