<p>目前,还没有一种内置tensorflow的全局优化方法。有一个通过<a href="https://www.tensorflow.org/api_docs/python/tf/contrib/opt/ScipyOptimizerInterface" rel="nofollow noreferrer">^{<cd1>}</a>打开的关于scipy世界的窗口,但是它(当前?)只包装scipy的<code>minimize</code>,这是一个局部极小。在</p>
<p>但是,您仍然可以将tensorflow的执行结果视为任何其他函数,这些函数可以提供给您选择的优化器。假设您要试验scipy的<a href="https://docs.scipy.org/doc/scipy/reference/generated/scipy.optimize.basinhopping.html" rel="nofollow noreferrer">^{<cd3>}</a>全局优化器。你可以写</p>
<pre><code>import numpy as np
from scipy.optimize import basinhopping
import tensorflow as tf
v = tf.placeholder(dtype=tf.float32, shape=(2,))
x = v[0]
y = v[1]
f1 = y - x*x
f2 = x - (y - 2)*(y - 2) + 1.1
sq = f1 * f1 + f2 * f2
starting_point = np.array([-1.3, 2.0], np.float32)
with tf.Session() as sess:
o = basinhopping(lambda x: sess.run(sq, {v: x}), x0=starting_point, T=10, niter=1000)
print(o.x)
# [0.76925635 0.63757862]
</code></pre>
<p>(我不得不调整<code>basinhopping</code>的温度和迭代次数,因为默认值通常不会让解离开作为起点的局部最小值的范围)。在</p>
<p>将tensorflow视为优化器的一个黑匣子会使优化器松了一口气,因为后者无法访问由tensorflow自动计算的渐变。从这个意义上说,它不是最佳的,尽管你仍然受益于GPU加速来计算你的函数。在</p>
<p><strong>编辑</strong></p>
<p>由于您可以显式地为<code>basinhopping</code>使用的局部最小值提供渐变,因此可以输入tensorflow的渐变结果:</p>
^{pr2}$
<p>由于某些原因,这比不提供梯度要慢得多,但也可能是提供了梯度,最小化算法不一样,因此比较可能没有意义。在</p>