拜读了您的《Attention is All You Need》浅读,对Q,K,V这三个矩阵的来源仍然不理解,我的一种理解是Q是attention layer的输入,K和V是需要训练的两个权重矩阵,这样理解对吗?