火把的预先训练模型

skipthoughts的Python项目详细描述


跳过思考.torch for pytorcb

skip-thinks.torchskip-thought pretrained models from Theano到pytorch的轻量级移植。

安装

  1. python3 with anaconda
  2. pytorch with/out CUDA

从PIP安装

  1. pip install skipthoughts

从repo安装

  1. git clone https://github.com/Cadene/skip-thoughts.torch.git
  2. cd skip-thoughts.torch/pytorch
  3. python setup.py install

可用的预训练模型

Uniskip

它使用torch的nn.GRU层和cudnn后端。这是最快的实现,但在CUDNN实现中的每个时间步骤后都会采样丢失…(等于不正确的正则化)

dropuniskip

它使用torch的nn.GRUCell层和cudnn后端。它比Uniskip稍慢,但是在序列中的所有时间步都会对丢失进行一次采样(良好的正则化)。

巴耶沙努尼斯基普

它使用一个带有火炬后端的自定义GRU层。它至少比uniskip慢两倍,但是对于每个线性(最佳正则化)的所有时间步,都对丢失进行一次采样。

比斯基普

等同于uniskip,但具有双序列gru。

快速示例

importtorchfromtorch.autogradimportVariableimportsyssys.path.append('skip-thoughts.torch/pytorch')fromskipthoughtsimportUniSkipdir_st='data/skip-thoughts'vocab=['robots','are','very','cool','<eos>','BiDiBu']uniskip=UniSkip(dir_st,vocab)input=Variable(torch.LongTensor([[1,2,3,4,0],# robots are very cool 0[6,2,3,4,5]# bidibu are very cool <eos>]))# <eos> token is optionalprint(input.size())# batch_size x seq_lenoutput_seq2vec=uniskip(input,lengths=[4,5])print(output_seq2vec.size())# batch_size x 2400output_seq2seq=uniskip(input)print(output_seq2seq.size())# batch_size x seq_len x 2400

欢迎加入QQ群-->: 979659372 Python中文网_新手群

推荐PyPI第三方库


热门话题
java JavaFX 11可编辑组合框引发IndexOutOfBoundsException   java选择数组中的数组元素   java我从来没有找到创建2D ArrayList的正确方法   java JPA查找orderById的顶部数据,并按字符串过滤Id   使用java在ejabberd中进行xmpp外部身份验证   从ajax调用向java传递点运算符   java如何使用ReadWriteLock   使用Spring控制器和jQueryAjax的java重定向   java使JFrame中的JPanel可滚动   java如何用多个。jar库?   java EditText在RecyclerView中失去了对滚动的关注   java为什么我们必须扩展Servlet或GenericServlet或HttpServlet来创建Servlet应用程序?如果不扩展,我们可以开发Servlet应用程序吗?   使用递归java查找数组中的最大值   具有不同字段数的html表单的java域传输对象   java文本视图扩展;不支持操作异常   java如何使用iText的HTMLWorker类将多语言HTML字符串呈现为PDF