深度残差多尺度分割器库
resmcseg的Python项目详细描述
深残留多尺度分段器库(resmcseg)
深度残差多尺度分割器(autonet)的python库。 当前版本只支持Keras的深度学习和 将来会扩展到其他人。
主要模块
模型
- gresmcseg:主要类,以获得深度广泛的多尺度残差
FCN公司。你可以设置它的阵列。看看这个班 成员函数的详细帮助。 - gresmcsegpre:对二类和多类进行语义分割的主要类。
- pretrainedmodel:使用dstl和 来自谷歌云的苏黎世数据集
util
- segmetrics:主要指标包括jaccard索引、miou和损失函数等。
- 助手:助手函数,包括颜色映射等。
数据
- 资料图:苏黎世访问一张图片的功能,用于测试模型的预测。
安装
对于最新版本,您可以使用以下命令直接安装:
sudo pip install resmcseg
安装和使用注意事项
编译器要求
RESMCSEG需要一个C++ 11兼容编译器可用。
运行时要求
resmcseg要求在Tensorflow的支持下安装路缘石。 深度学习的后端系统(支持Keras)。熊猫和小熊猫也应该 安装。 具体说明:Keras>;=2.2.2;OpenCV2>;=3.4.1,TensorFlow,Numpy,Sklearn,Pandas, GDAL、TIFF文件等。
用例
这个包的github主页resmcseg提供了
库的使用示例:
https://github.com/lspatial/resmcsegpub
许可证
resmcseg是在mit许可证下提供的,可以在许可证中找到 文件。通过使用、分发或参与此项目,您同意 本许可证的条款和条件。
测试调用
importosimportcv2fromkeras.modelsimportload_model,model_from_jsonfromresmcseg.util.segmetricsimportcompute_iou,jaccard,mean_iouC,miou,mean_ioufromresmcseg.model.gresmcseg_preimportgResMCSegPrefromresmcseg.model.resizelayerimportResizeLayerfromresmcseg.model.pretrainedmodelimportdownloadPretrainedModelfromresmcseg.util.helperimportbce_dice_loss,jaccard_coef,jaccard_coef_int,jaccard_coef1fromresmcseg.util.helperimportonehot_to_rgb,color_dictfromresmcseg.dataimportdloadmodelFl='/tmp/model_strwei.h5'ifnotos.path.isfile(modelFl):downloadPretrainedModel('ZURICH',destination=modelFl)model=load_model(modelFl,custom_objects={'ResizeLayer':ResizeLayer,'bce_dice_loss':bce_dice_loss,'mean_iou':mean_iou,'jaccard_coef':jaccard_coef,'jaccard_coef1':jaccard_coef1,'miou':miou,'jaccard_coef_int':jaccard_coef_int,'mean_iouC':mean_iouC})ppre=gResMCSegPre(patchsize=224,bordersize=16,overprop=0.3)img,mask=dload()imgres=ppre.preAImgMulti(img,model,9)mskImg=onehot_to_rgb(imgres,color_dict)fpath="/tmp/zurich1img_pre.jpg"cv2.imwrite(fpath,cv2.cvtColor(mskImg,cv2.COLOR_RGB2BGR),[int(cv2.IMWRITE_JPEG_QUALITY),100])y_pred=imgres.flatten()y_true=mask.flatten()iou=compute_iou(imgres,mask)jacard=jaccard(imgres,mask)print("iou : "+str(iou)+'; jacard is ',jacard)
协作
欢迎与李连发博士联系(邮箱:lspatial@gmail.com或lilf@lreis.ac.cn)。