视频描述/字幕框架
pele的Python项目详细描述
Pele是一个多样化和灵活的图书馆,旨在研究序列到序列的学习,主要是在 分层视觉任务,如视频字幕和视频活动识别。通常有许多活动部件 为这些任务构建系统,Pele的目的是帮助缓解压力、时间和头痛 与视频数据,序列到序列学习。在
安装
来源
安装pele库需要满足以下要求:
- torch>=1.4
- torchvision>=0.5
- numpy>=1.18
- sentencepiece>=0.1.8
- gin-config>=0.3.0
- Click>=7.0
- ray>=0.9.0.dev0
- apex>=0.1
- tensorboardX>=2.0 # Unmarked Ray dependency
- requests>=2.23.0 # Unmarked Ray dependency
- pandas>=1.0.1 # Unmarked Ray dependency
- tabulate>=0.8.6 # Unmarked Ray dependency
其中有两个依赖项很难安装。Apex应按照 https://github.com/NVIDIA/apex,而Ray的开发版本可以通过夜间构建来安装 位于https://ray.readthedocs.io/en/latest/installation.html的指令。在
一旦安装了Apex和Ray,我们就可以克隆这个存储库here,然后运行 从存储库目录执行以下操作:
^{pr2}$入门
有关所有详细信息,请查看我们的文档here。在
每个实验都由一个gin-config文件指定,概述了数据源, 模型、损失和培训程序。在
首先,请查看examples/
中的示例实验。您可以使用以下命令运行任何训练实验:
pele train [Experiment .gin File]
团队
贝利目前由David Chan和加州大学伯克利分校cannilab的团队负责维护。在
许可证
Pele是在Apache2.0下获得许可的,如许可文件中所示。在
- 项目
标签: