擅长:python、mysql、java
<p>这两种方法的区别在tensorflow的多任务学习中得到了很好的证明。</p>
<p>简而言之:</p>
<p><strong>方法1:
这被称为联合训练,因为它直接把损失加在一起,结果是所有的梯度和更新都是同时对两个损失进行的。通常,当使用同一组输入特征训练多个输出时使用。</p>
<p><strong>方法2:
这将创建两个独立的优化器,称为备用训练。当您为每个输出使用输入特性的子集时,将使用此选项。因此,当输入train_op1的特征子集时,train_op2的子图是未触及的。可以使用不同的输入特性以交替顺序调用每个优化器。</p>
<p>如果使用相同的输入数据同时运行两个优化器,那么与方法1的差异可能非常小。</p>