我最近正在编写一些用tensorflow 1.0.1编写的代码,我想让它在tenorflow 2上可用。 我对seq2seq不是很熟悉。 多谢各位
(attention_keys,
attention_values,
attention_score_fn,
attention_construct_fn) = tf.contrib.seq2seq.prepare_attention(
attention_states=attention_states,
attention_option="bahdanau",
num_units=self.decoder_hidden_units,
)
根据这个Github Comment,
tf.contrib.seq2seq.prepare_attention()
被重命名为tf.contrib.seq2seq.DynamicAttentionWrapper
根据此Github Tensorflow Commit,
DynamicAttentionWrapper
已重命名为AttentionWrapper
因此,在1.15中,等价于}
tf.contrib.seq2seq.prepare_attention()
的函数是^{在Tensorflow 2.x中等价于^{} 的函数是^{}
请查找此Tensorflow Documentation以了解更多信息
相关问题 更多 >
编程相关推荐