一个用于创建和训练前馈神经网络的小型python库
nnweaver的Python项目详细描述
[覆盖状态](https://coveralls.io/repos/github/gvingiguerra/nnweaver/badge.svg?branch=master)(https://coveralls.io/github/gvingiguerra/nnweaver?分支=主)
[![构建状态](https://travis-ci.org/gvinciguerra/nnweaver.svg?branch=master)“(https://travis ci.org/gvingiguerra/nnweaver)
nnweaver是一个*小*python库,用于创建和训练前馈神经网络。我们开发这个库作为机器学习课程的一个项目。
简单的api,易学。
2.包括验证功能。
3.重量轻,依赖性小。
4.实时丢失/epoch曲线显示。
##入门35;
您可以创建一个前馈神经网络,指定输入数作为参数[`nn`](https://gvingiguerra.github.io/nnweaver/nnweaver.html nnweaver.nn.nn),以及通过添加一个[`layer`](https://gvingiguerra.github.io/nnweaver/nnweaver.html nnweaver.nn.layer)获得的输出数:
如下代码所示:
nn.添加层(层(7,乙状结肠))
nn.添加层(层(6,整流器,均匀(0,0.05))
nn.添加层(层(42,tanh,
有关可用激活函数的列表,请参见[`Activations`](https://gvingiguerra.github.io/nnweaver/nnweaver.html module nnweaver.activations)获取有关可用激活函数列表的信息。
<<<<
现在,选择一个`损失`](https://gvingihtml nnweaver.loss.loss)函数,将其传递给一个[`optimizer`](https://gvingiguerra.github.io/nnweaver/nnweaver.html nnweaver.optimizers.optimizer)(就像随机梯度下降一样)并开始训练:
还有其他参数要传递给[`sgd.train()`](https://gvingiguerra.github.io/nnweaver/nnweaver.html nnweaver.optimizers.sgd.train)方法,例如:
sgd.train(nn,x_train,y_train,
learning_rate_time_based(0.25,0.001),
批处理大小=10,epochs=100,动量=0.85)
BR/>同时,你可能想要控制模型的复杂性。[`sgd.train()`](https://gvingiguerra.github.io/nnweaver/nnweaver/nnweaver.html nnweaver.optimizers.sgd.train)有一个“regregregregizer”参数,它接受一个实例的[`llll12regularizer`](https://gvingiguiguerra.github.io/nnweaver/nnweaver/nnweaver.html訛nnweaver.reg正则化器.llll12regularizer)类。
<;img src=“https://github.com/gvingiguerra/nnweaver/blob/gh-pages//u images/nnweaver.gif?
35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 根据麻省理工学院执照的条款。