05 Transformer 中的前馈神经网络(FFN)的实现

网友投稿 790 2022-11-30

05 Transformer 中的前馈神经网络(FFN)的实现

2:20:理论链接

博客配套视频链接: ​​b 站直接看

配套 github 链接:​​PositionWiseFeedForward(nn.Module): """ w2(relu(w1(layer_norm(x))+b1))+b2 """ def __init__(self, d_model, d_ff, dropout=0.1): super(PositionWiseFeedForward, self).__init__() self.w_1 = nn.Linear(d_model, d_ff) self.w_2 = nn.Linear(d_ff, d_model) self.layer_norm = nn.LayerNorm(d_model, eps=1e-6) self.dropout_1 = nn.Dropout(dropout) self.relu = nn.ReLU() self.dropout_2 = nn.Dropout(dropout) def forward(self, x): inter = self.dropout_1(self.relu(self.w_1(self.layer_norm(x)))) output = self.dropout_2(self.w_2(inter)) return output

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:使用@Validated 和 BindingResult 遇到的坑及解决
下一篇:选中按钮上色
相关文章

 发表评论

暂时没有评论,来抢沙发吧~