可训练,多参数活动。函数(RBF)NeuPy/Thean

2024-04-27 04:48:33 发布

您现在位置:Python中文网/ 问答频道 /正文

如何在Neupy或Theano中实现一个用于Neupy的自定义激活函数(RBF核,通过梯度下降调整均值和方差)。你知道吗

{快速背景:梯度下降适用于网络中的每个参数。我想创建一个专门的特性空间,其中包含优化的特性参数,以便Neupy}

我认为我的问题在于参数的创建、它们的大小以及它们之间的联系。你知道吗

感兴趣的主要功能。你知道吗

激活函数类

class RBF(layers.ActivationLayer):
    def initialize(self):
        super(RBF, self).initialize()
        self.add_parameter(name='mean', shape=(1,),
                       value=init.Normal(), trainable=True)
        self.add_parameter(name='std_dev', shape=(1,),
                       value=init.Normal(), trainable=True)
    def output(self, input_value):
        return rbf(input_value, self.parameters)

径向基函数

def rbf(input_value, parameters):
    K = _outer_substract(input_value, parameters['mean'])
    return np.exp(- np.linalg.norm(K)/parameters['std_dev'])

功能塑造?你知道吗

def _outer_substract(x, y):
    return (x - y.T).T

帮助将不胜感激,因为这将提供如何定制neupy网络的深刻见解。文档可能需要在某些领域进行一些工作,至少可以说。。。你知道吗


Tags: 函数self功能网络input参数returnvalue
2条回答

当图层更改输入变量的形状时,它必须将更改通知后续图层。对于这种情况,它必须具有定制的output_shape属性。例如:

from neupy import layers
from neupy.utils import as_tuple
import theano.tensor as T

class Flatten(layers.BaseLayer):
    """
    Slight modification of the Reshape layer from the neupy library:
    https://github.com/itdxer/neupy/blob/master/neupy/layers/reshape.py
    """
    @property 
    def output_shape(self):
        # Number of output feature depends on the input shape 
        # When layer receives input with shape (10, 3, 4)
        # than output will be (10, 12). First number 10 defines
        # number of samples which you typically don't need to
        # change during propagation
        n_output_features = np.prod(self.input_shape)
        return (n_output_features,)

    def output(self, input_value):
        n_samples = input_value.shape[0]
        return T.reshape(input_value, as_tuple(n_samples, self.output_shape))

如果你在终端上运行它,你会看到它是工作的

>>> network = layers.Input((3, 4)) > Flatten()
>>> predict = network.compile()
>>> predict(np.random.random((10, 3, 4))).shape
(10, 12)

在您的示例中,我可以看到一些问题:

  1. rbf函数不返回ano表达式。它应该在函数编译期间失败
  2. 如果不指定要计算范数的轴,像np.linalg.norm这样的函数将返回标量。你知道吗

下面的解决方案应该适合您

import numpy as np
from neupy import layers, init
import theano.tensor as T


def norm(value, axis=None):
    return T.sqrt(T.sum(T.square(value), axis=axis))


class RBF(layers.BaseLayer):
    def initialize(self):
        super(RBF, self).initialize()

        # It's more flexible when shape of the parameters
        # denend on the input shape
        self.add_parameter(
            name='mean', shape=self.input_shape,
            value=init.Constant(0.), trainable=True)

        self.add_parameter(
            name='std_dev', shape=self.input_shape,
            value=init.Constant(1.), trainable=True)

    def output(self, input_value):
        K = input_value - self.mean
        return T.exp(-norm(K, axis=0) / self.std_dev)


network = layers.Input(1) > RBF()
predict = network.compile()
print(predict(np.random.random((10, 1))))

network = layers.Input(4) > RBF()
predict = network.compile()
print(predict(np.random.random((10, 4))))

虽然itdxer充分回答了这个问题,但我想补充一下这个问题的精确解。你知道吗

建筑创作

network = layers.Input(size) > RBF() > layers.Softmax(num_out)

激活函数

    # Elementwise Gaussian (RBF)
    def rbf(value, mean, std):
        return T.exp(-.5*T.sqr(value-mean)/T.sqr(std))/(std*T.sqrt(2*np.pi))

RBF类

    class RBF(layers.BaseLayer):

        def initialize(self):

            # Begin by initializing.
            super(RBF, self).initialize()

            # Add parameters to train
            self.add_parameter(name='means', shape=self.input_shape,
                           value=init.Normal(), trainable=True)
            self.add_parameter(name='std_dev', shape=self.input_shape,
                           value=init.Normal(), trainable=True)

        # Define output function for the RBF layer.
        def output(self, input_value):
            K = input_value - self.means
            return rbf(input_value,self.means,self.std_dev

培训

如果你对培训感兴趣。这很简单

# Set training algorithm
gdnet = algorithms.Momentum(
    network,
    momenutm = 0.1
)

# Train. 
gdnet.train(x,y,max_iter=100)

这是用适当的输入和目标进行编译的,平均值和方差在元素的基础上进行更新。你知道吗

相关问题 更多 >