我有一个向量x,想要计算一个向量y,这样y[j] = x[j]**2
就可以使用张量流指定的神经网络,如下所示。工作不太好,误差很大。
我做错什么了吗?
任何帮助都将不胜感激
它的工作方式是首先在Xtrain、Ytrain、Xtest和Ytest中生成数据,然后创建占位符变量以使TensorFlow运行。
然后指定三个隐藏层和一个输出层。然后它进行训练,并使用feed字典创建Ytest的预测Ypred。你知道吗
import numpy as np
import tensorflow as tf
n = 10
k = 1000
n_hidden = 10
learning_rate = .01
training_epochs = 100000
Xtrain = []
Ytrain = []
Xtest = []
Ytest = []
for i in range(0,k,1):
X = np.random.randn(1,n)[0]
Xtrain += [X]
Ytrain += [Xtrain[-1]**2]
X = np.random.randn(1,n)[0]
Xtest += [X]
Ytest += [Xtest[-1]**2]
x = tf.placeholder(tf.float64,shape = (k,n))
y = tf.placeholder(tf.float64,shape = (k,n))
W1 = tf.Variable(tf.random_normal((n,n_hidden),dtype = tf.float64))
b1 = tf.Variable(tf.random_normal((n_hidden,),dtype = tf.float64))
x_hidden1 = tf.nn.sigmoid(tf.matmul(x,W1) + b1)
W2 = tf.Variable(tf.random_normal((n,n_hidden),dtype = tf.float64))
b2 = tf.Variable(tf.random_normal((n_hidden,),dtype = tf.float64))
x_hidden2 = tf.nn.sigmoid(tf.matmul(x_hidden1,W2) + b2)
W3 = tf.Variable(tf.random_normal((n,n_hidden),dtype = tf.float64))
b3 = tf.Variable(tf.random_normal((n_hidden,),dtype = tf.float64))
x_hidden3 = tf.nn.sigmoid(tf.matmul(x_hidden1,W3) + b3)
W4 = tf.Variable(tf.random_normal((n,n_hidden),dtype = tf.float64))
b4 = tf.Variable(tf.random_normal((n_hidden,),dtype = tf.float64))
y_pred = tf.matmul(x_hidden3,W4) + b4
penalty = tf.reduce_sum(tf.abs((y - y_pred)))
train_op = tf.train.AdamOptimizer(learning_rate).minimize(penalty)
model = tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(model)
for i in range(0,training_epochs):
sess.run(train_op,{x: Xtrain,y: Ytrain})
Ypred = y_pred.eval(feed_dict = {x: Xtest})
这个代码做得更好。有人想做进一步的改进吗?你知道吗
下面是对代码的一些简单修改:
输出:
总惩罚可以通过其他一些架构、学习率、批量大小、历元计数、损失函数、e.t.c.来提高
看来架构可能会增加,那么你就可以长时间运行训练,获得1e-3。你知道吗
有关它的工作原理和操作方法的更多信息,请访问CS231 course。你知道吗
另外,这里有一些关于数据输入的假设:我测试的一些数据可能是在训练过程中得到的。因为任务很简单,所以没关系,但最好保证测试集中不会有任何列车样本。你知道吗
相关问题 更多 >
编程相关推荐