使用十位数的嵌入

2024-05-28 23:44:55 发布

您现在位置:Python中文网/ 问答频道 /正文

official documentation中显示的文档似乎直接跳入注意力模型,而没有说明如何使用基本的seq2seq模型。我正在尝试从某种日期格式转换成一种标准方法。示例如下:

[('7 07 13', '2013-07-07'),
 ('30 JULY 1977', '1977-07-30'),
 ('Tuesday, September 14, 1971', '1971-09-14'),
 ('18 09 88', '1988-09-18'),
 ('31, Aug 1986', '1986-08-31')]

其中第二列是输出“y”。在

以下是我计划如何在高水平上使用seq2seq模型:

  1. 将输出和输入字符都嵌入到10维向量中。在
  2. 填充输入向量,使它们都是固定长度(在我的例子中是29个,输出的长度是11)。在
  3. 将这29个字符传递到seq2seq中,以便它们输出大小为hidden_size的11个逻辑
  4. 使用平均交叉熵损失(跨时间步长和批量大小)来获得损失值。在
  5. 优化损失。在

到目前为止,我的模型如下:

^{pr2}$

Hoever,它在抱怨Lengths of logits, weights, and targets must be the same 29, 11, 11,因为(我认为)dec_outputs的长度是29,而我希望它的长度应该是11。在

  1. 我的问题是,我正在从一个长度为29的序列翻译成一个长度为11的序列,我应该如何在tensorflow中做到这一点。在
  2. 同样纠正我,如果我错了,这些模型的输入大小是[time_steps, batch_size]?请注意,batch_size是第二个参数,而不是第一个参数。我读了一些教程就有了这样的印象。在

包含数据的完整代码可用here。在


Tags: 方法文档模型参数标准sizedocumentation格式

热门问题