创脉思
登录
首页
/
Transformer
/
Self-Attention 机制
1. 面试官:在自注意力机制中,解释什么是“Masked Self-Attention”?
请
登陆
后,查看答案
2. 面试官:如何利用自注意力机制在 Transformer 模型中实现文本分类任务?
请
登陆
后,查看答案
3. 面试官:介绍一下 Relative Positional Encoding 在自注意力机制中的作用与优势。
请
登陆
后,查看答案
4. 面试官:自注意力机制在 Transformer 模型中的位置编码是如何实现的?
请
登陆
后,查看答案
5. 面试官:解释自注意力机制中的 Query、Key、Value 在计算中扮演的角色。
请
登陆
后,查看答案
6. 面试官:在多头注意力机制中,每个头的作用是什么?
请
登陆
后,查看答案
7. 面试官:自注意力机制中的“Scaled Dot-Product Attention”是如何计算的?
请
登陆
后,查看答案
8. 面试官:请说明自注意力机制与传统 RNN 或 LSTM 模型在处理长序列数据上的优势和劣势。
请
登陆
后,查看答案
9. 面试官:自注意力机制中的“Position-wise Feed Forward Network”是用来做什么的?
请
登陆
后,查看答案
10. 面试官:在 Transformer 模型中,为什么需要添加 Layer Normalization 和残差连接?
请
登陆
后,查看答案
滨湖区创脉思软件工作室 ⓒ Copyright 2024
苏ICP备2023020970号-2
微信客服