コード例 #1
0
ファイル: transformer_encoder.py プロジェクト: sdadas/fairseq
 def __init__(self, args, dictionary, embed_tokens):
     self.args = args
     super().__init__(
         TransformerConfig.from_namespace(args),
         dictionary,
         embed_tokens,
     )
コード例 #2
0
 def build_self_attention(
     self, embed_dim, args, add_bias_kv=False, add_zero_attn=False
 ):
     return super().build_self_attention(
         embed_dim,
         TransformerConfig.from_namespace(args),
         add_bias_kv=add_bias_kv,
         add_zero_attn=add_zero_attn,
     )
コード例 #3
0
 def __init__(
     self, args, no_encoder_attn=False, add_bias_kv=False, add_zero_attn=False
 ):
     super().__init__(
         TransformerConfig.from_namespace(args),
         no_encoder_attn=no_encoder_attn,
         add_bias_kv=add_bias_kv,
         add_zero_attn=add_zero_attn,
     )
     self.args = args
コード例 #4
0
 def __init__(
         self,
         args,
         positional_embedding: Optional[RelativePositionalEmbedding] = None
 ):
     super().__init__(
         TransformerConfig.from_namespace(args),
         positional_embedding=positional_embedding,
     )
     self.args = args
コード例 #5
0
 def __init__(
     self,
     args,
     dictionary,
     embed_tokens,
     no_encoder_attn=False,
     output_projection=None,
 ):
     self.args = args
     super().__init__(
         TransformerConfig.from_namespace(args),
         dictionary,
         embed_tokens,
         no_encoder_attn=no_encoder_attn,
         output_projection=output_projection,
     )
コード例 #6
0
 def __init__(
     self,
     args,
     no_encoder_attn=False,
     add_bias_kv=False,
     add_zero_attn=False,
     positional_embedding: Optional[RelativePositionalEmbedding] = None,
 ):
     super().__init__(
         TransformerConfig.from_namespace(args),
         no_encoder_attn=no_encoder_attn,
         add_bias_kv=add_bias_kv,
         add_zero_attn=add_zero_attn,
         positional_embedding=positional_embedding,
     )
     self.args = args
コード例 #7
0
 def build_encoder_attention(self, embed_dim, args):
     return super().build_encoder_attention(
         embed_dim,
         TransformerConfig.from_namespace(args),
     )
コード例 #8
0
 def __init__(self, args):
     super().__init__(TransformerConfig.from_namespace(args))
     self.args = args
コード例 #9
0
ファイル: transformer_encoder.py プロジェクト: sdadas/fairseq
 def build_encoder_layer(self, args):
     return super().build_encoder_layer(
         TransformerConfig.from_namespace(args), )
コード例 #10
0
 def build_decoder_layer(self, args, no_encoder_attn=False):
     return super().build_decoder_layer(
         TransformerConfig.from_namespace(args),
         no_encoder_attn=no_encoder_attn)
コード例 #11
0
 def build_output_projection(self, args, dictionary, embed_tokens):
     super().build_output_projection(TransformerConfig.from_namespace(args),
                                     dictionary, embed_tokens)
コード例 #12
0
 def build_self_attention(self, embed_dim, args, positional_embedding=None):
     return super().build_self_attention(
         embed_dim,
         TransformerConfig.from_namespace(args),
         positional_embedding=positional_embedding,
     )