利用统治水平从图像中识别流离失所者
DisplaceNet的Python项目详细描述
简介
减少与人权有关的形象分析所需的体力劳动, 我们引入了一个新的模型,从图像中推断潜在的流离失所者。 通过将情境的支配水平和cnn分类器集成到一个框架中。
Grigorios KalliatakisShoaib EhsanMaria FasliKlaus McDonald-Maier
出现在1stcvpr研讨会上
[arXiv preprint]
__
[poster coming soon...]
依赖性
- Python2.7+
- 路缘石2.1.5+
- Tensorflow 1.6.0+
使用量
克隆存储库:
$ git clone https://github.com/GKalliatakis/DisplaceNet.git
使用预先训练的模型进行推理
要使用displacenet进行单个图像推断,请运行下面的脚本。有关可选参数的列表,请参见run_DisplaceNet.py。
$ python run_DisplaceNet.py --img_path test_image.jpg \ --hra_model_backend_name VGG16 \ --emotic_model_backend_name VGG16 \ --nb_of_conv_layers_to_fine_tune 1
推断结果置换网与普通cnns的比较
使用displacenet进行单个图像推断,并将结果显示在vanilla cnns上(如本文所示)。 例如,要复制下面的图像,请运行以下脚本。 有关可选参数的列表,请参见displacenet_vs_vanilla.py。
$ python displacenet_vs_vanilla.py --img_path test_image.jpg \ --hra_model_backend_name VGG16 \ --emotic_model_backend_name VGG16 \ --nb_of_conv_layers_to_fine_tune 1
从头开始训练置换网的分支
要在hra子集上培训流离失所者分支,请运行下面的培训脚本。有关可选参数的列表,请参见train_emotic_unified.py。
$ python train_hra_2class_unified.py --pre_trained_model vgg16 \
--nb_of_conv_layers_to_fine_tune 1\
--nb_of_epochs 50
要在emotic子集上训练human centric分支,请运行下面的训练脚本。有关可选参数的列表,请参见train_emotic_unified.py。
$ python train_emotic_unified.py --body_backbone_CNN VGG16 \
--image_backbone_CNN VGG16_Places365 \
--modelCheckpoint_quantity val_loss \
--earlyStopping_quantity val_loss \
--nb_of_epochs 100\
请注意,为了自己训练以人为中心的分支,需要包含预处理图像及其各自注释的hdf5文件(10.4gb)。
位移网数据
要在hra子集上培训流离失所者分支,请运行下面的培训脚本。有关可选参数的列表,请参见train_emotic_unified.py。
$ python train_hra_2class_unified.py --pre_trained_model vgg16 \ --nb_of_conv_layers_to_fine_tune 1\ --nb_of_epochs 50
要在emotic子集上训练human centric分支,请运行下面的训练脚本。有关可选参数的列表,请参见train_emotic_unified.py。
$ python train_emotic_unified.py --body_backbone_CNN VGG16 \ --image_backbone_CNN VGG16_Places365 \ --modelCheckpoint_quantity val_loss \ --earlyStopping_quantity val_loss \ --nb_of_epochs 100\
请注意,为了自己训练以人为中心的分支,需要包含预处理图像及其各自注释的hdf5文件(10.4gb)。
在这里我们向公众公布了训练位移网的数据。
Human Rights Archive是我们的数据集的核心集,用于训练置换网。
构建的数据集包含609幅流离失所者和相同数量的非流离失所者的图像 人员对口培训,以及从网上收集的100张图片进行测试和验证。
结果(单击图像放大)
阿布塞内表现
使用DisplaceNet识别流离失所者的性能如下所示。 作为比较,我们列出了不同网络骨干训练的各种普通cnn的性能, 为了表彰流离失所的人们。我们报告在准确性和覆盖率方面的比较分类器能够产生预测度量的数据集的比例
引用displacenet
如果您在研究中使用我们的代码或希望参考基线结果,请使用以下bibtex条目:
@article{kalliatakis2019displacenet,
title={DisplaceNet: Recognising Displaced People from Images by Exploiting Dominance Level},
author={Kalliatakis, Grigorios and Ehsan, Shoaib and Fasli, Maria and McDonald-Maier, Klaus D},
journal={arXiv preprint arXiv:1905.02025},
year={2019}
}
:章鱼:
repo将很快更新更多详细信息!
在继续之前,请确保您已经在这个存储库中添加了星号和叉号!