一、AnyLabeling[1]——制作人:vietanhdev

        AnyLabeling = LabelImg + Labelme + Improved UI + Autolabeling

        AnyLabeling软件是一个集成了YOLO、Segment Anything模型(AI支持)的高效数据标注工具,它可以通过点击目标的方式完成目标检测框选以及语义分割标签数据集。虽然Ground Truth,通常指人工标注目标的结果,但是我们可以基于模型预制的标签再人为进行细微修改,如此可以较好地减少一定的纯人工标注工作量。

        利用模型预制中,我们可以发现边界明显的区域通常能够得到较好的分割。

        Github网页:GitHub - vietanhdev/anylabeling: Effortless AI-assisted data labeling with AI support from Segment Anything and YOLO!

        YouTube使用教学:

        https://www.youtube.com/watch?v=xLVz-f6OeUY

基于SAM的二次开发案例收集分享-LMLPHP

二、Segment-RS[2]——制作人:45度科研人

       在遥感领域,智能交互解译方式是AI在遥感方面拓展应用的重要媒介,而SAM中引入prompt机制(提示词机制)为遥感解译带来了更多的可能性。Segment-RS是SAM的二创模型,是一个基于SAM的遥感智能交互解译工具,其包含交互式解译自动解译

        测试网页:Segment-RS - a Hugging Face Space by JunchuanYu

        Ⅰ 对于纹理均一,特征明显的目标(比如水体等)和场景单一、边界明显的目标,通常能够得到较好的分割结果;

        Ⅱ 交互式解译中形态规则目标被算法识别为前景目标,提取效果较好;

        Ⅲ 对于林地等自然地物,纹理相对粗糙且分布不连续,分割效果较差;

        Ⅳ 由于中国南方农田地块的对象多样性、零散性与易混淆性,对于农田地块的提取质量较差;

        Ⅴ AutoSegment(目标零散、形状规则情况)通过条件提取质量阈值以及样本点密度选项,仅能做到生成实例遮罩,并不能输出某一类目标的范围。

三、2020年全国10米分辨率土地覆盖制图数据—武汉大学[3]

       10米分辨率的Sentinel-2 MSI影像被选为本研究的较高空间分辨率数据源 ,30米分辨率的GlobeLand30-2010被选为历史低分辨率土地覆盖数据。该数据基于一种跨空间分辨率的土地覆盖制图框架生成,即2020年中国10米空间分辨率土地覆盖图是在30米空间分辨率历史产品的基础上提高精度制作的。

        中国拥有农田、森林、草地和湿地等多种多样的生态系统,涵盖了大多数土地覆盖类型。但是,中国缺少高纬度地区,苔原和地衣很少见,所以该数据在分类系统中去掉了“苔原”类别;灌丛在中国GlobeLand30中相对稀少,所以将灌丛和草地合并为“草/灌丛”类。综上所述,在该数据中,分类系统被简化为八类,分别为耕地森林草/灌丛湿地水体不透水面裸地雪/冰

        数据获取地址:GitHub - LiuGalaxy/CRLC

基于SAM的二次开发案例收集分享-LMLPHP

 (图源:Liu,Y. etc,Cross-resolution national-scale land-cover mapping based on noisy label learning: A case study of China)

参考资料:

[1] https://www.bilibili.com/video/BV1JM4y187Np/?spm_id_from=333.1007.top_right_bar_window_history.content.click&vd_source=a17b26e6f5dce43e0b4b220aeb13a517

[2] Segment-RS一个基于SAM的遥感智能交互解译工具(附视频)

[3] Liu,Y., Zhong,Y.,Ma,A.,Zhao,J.and Zhang,L., 2023.Cross-resolution national-scale land-cover mapping based on noisy label learning: A case study of China. International Journal of Applied Earth Observation and Geoinformation, 118, p.103265.

04-28 01:51