2024-05-12 20:49:06 发布
网友
我正在学习用keras构建一个定制的序列到序列模型,并阅读了其他人编写的一些代码,例如here。关于常量的call方法我搞糊涂了。这里有keras"Note on passing external constants to RNNs",但是我很难理解常量对模型的作用。在
我确实看过了attention model和pointer network文件,但也许我漏掉了一些东西。在
任何模型细节的参考将不胜感激!提前谢谢。在
好吧,作为参考,以防别人无意中发现这个问题:我浏览了经常性.py文件,我认为get_常量是获取dropout mask和recurrent dropout mask,然后将其与[h,c]状态连接起来(这四个元素的顺序在LSTM step方法中是必需的)。之后,对于原始的LSTM单元就不再重要了,但是您可以添加自己的“常量”(在某种意义上说,它不会被学习)以便从一个时间步传递到下一个时间步。所有常量都将隐式地添加到返回的[h,c]状态中。在Keon's example中,返回状态的第五个位置是输入序列,可以通过调用states[-1]在每个时间步中引用它。在
好吧,作为参考,以防别人无意中发现这个问题:我浏览了经常性.py文件,我认为get_常量是获取dropout mask和recurrent dropout mask,然后将其与[h,c]状态连接起来(这四个元素的顺序在LSTM step方法中是必需的)。之后,对于原始的LSTM单元就不再重要了,但是您可以添加自己的“常量”(在某种意义上说,它不会被学习)以便从一个时间步传递到下一个时间步。所有常量都将隐式地添加到返回的[h,c]状态中。在Keon's example中,返回状态的第五个位置是输入序列,可以通过调用states[-1]在每个时间步中引用它。在
相关问题 更多 >
编程相关推荐