2024-04-26 11:10:38 发布
网友
它看起来像seq2seq中用于计算注意力掩码的attention()方法_模型.py解码期间不调用序列到序列代码的示例TensorFlow代码中的代码。在
有人知道怎么解决这个问题吗?这里提出了一个类似的问题:Visualizing attention activation in Tensorflow,但我不清楚如何在解码过程中得到矩阵。在
谢谢!在
你为什么需要面具?如果只是为了可视化,我想您可能需要传递张量并在会话运行中获取它。在
你为什么需要面具?如果只是为了可视化,我想您可能需要传递张量并在会话运行中获取它。在
相关问题 更多 >
编程相关推荐