憨批的语义分割6——制作语义分割数据标签

2023-11-18

憨批的语义分割6——制作语义分割数据集

学习前言

有些小伙伴问怎么制作数据集,其实我也没有去制作过……所以也要学学啦,

在这里插入图片描述

制作工具Labelme

这里要用到Labelme工具。
在cmd终端运行

pip install labelme

即可安装!
在这里插入图片描述
安装完成后直接使用:
在这里插入图片描述
运行结果如下:
在这里插入图片描述

Labelme的使用

点击画面上的open就可以打开图片。
在这里插入图片描述
点击create polygons就可以开始描点了。
在这里插入图片描述
比如我们对猫描点。
在这里插入图片描述
点击Save就可以保存了!

然后新建一个cmd窗口。

cd到json文件所放的地方。
在这里插入图片描述
运行如下代码:

labelme_json_to_dataset  <文件名>.json

即:
在这里插入图片描述
得到如下文件:
在这里插入图片描述
其中label.png就是所得标签。

标签文件内容

利用如下代码查看label.png的格式。

img = Image.open("猫_json/label.png")
img = np.array(img)
print(img.shape)

输出为:

(1080, 1920)

其实现在这个png文件已经是单通道的了,一个通道8个字节。对于本例而言,里面最后一维度只有两个值,背景为0,猫身上的像素点为1。

我之前在对语义分割训练内容进行讲解的时候说到过,标签文件里面RGB三个通道的值都是它的类,这个标签与之同理,只是从三个通道数减少到了一个通道数,对于这个通道数仅为1的标签文件而言,其实直接获取它单个像素点上的值就是它的类。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

憨批的语义分割6——制作语义分割数据标签 的相关文章

  • 语义分割评价指标mIOU的计算

    语义分割评价指标mIOU的计算 注意事项 这是针对重构了的语义分割网络 而不是之前的那个 所以不要询问原来的网络计算miou要怎么做 因为整个文件构架差距过大 建议使用新构架 学习前言 算一下语义分割的miou 做好生态链 什么是mIOU
  • 【计算机视觉

    文章目录 一 分割 语义相关 9篇 1 1 OpenIns3D Snap and Lookup for 3D Open vocabulary Instance Segmentation 1 2 dacl10k Benchmark for S
  • 【数据集】——SBD数据集下载链接

    简介 SBD Dataset 是一个语义边界数据集 其包含来自 PASCAL VOC 2011 数据集中 11355 张图片的注释 这些图片均基于 Amazon Mechanical Turk 其中分割之间的冲突均为手动解决 此外 每张图像
  • 手把手实战教学!语义分割从0到1:一、数据集制作

    本篇博客 是 手把手实战教学 语义分割从0到1 系列的第一篇实战教学 将重点介绍语义分割相关数据集 以及如何制作自己的数据集 本系列总的介绍 以及其他章节的汇总 见 https blog csdn net oYeZhou article d
  • Fully Convolutional Adaptation Networks for Semantic Segmentation

    参考 论文解析之 Fully Convolutional Adaptation Networks for Semantic Segmentation 云 社区 腾讯云 论文网址 Fully Convolutional Adaptation
  • 【个人项目】——细腻的人像分割

    项目地址 segmentation pytorch 前面介绍了 一个人像分割数据集 这里采用该数据做了人像分割的小demo Supervisely 人像分割数据集格式转换 1 测试 1 1 环境采用本机的torch140 1 2 下载预训练
  • 图像分类,物体检测,语义分割,实例分割的联系和区别

    从10月中旬开始 科研转为 Object Segment 即物体分割 这属于图像理解范畴 图像理解包含众多 如图像分类 物体检测 物体分割 实例分割等若干具体问题 每个问题研究的范畴是什么 或者说每个问题中 对于某幅图像的处理结果是什么 整
  • 对图片进行膨胀与腐蚀

    操作前的图片 操作后 代码实现 import cv2 import numpy as np from PIL import Image import os import matplotlib pyplot as plt 生成文件夹 def
  • 憨批的语义分割3——unet模型详解以及训练自己的unet模型(划分斑马线)

    憨批的语义分割3 unet模型详解以及训练自己的unet模型 划分斑马线 学习前言 模型部分 什么是unet模型 unet模型的代码实现 1 主干模型Mobilenet 2 unet的Decoder解码部分 代码测试 训练部分 训练的是什么
  • HRNet-Semantic-Segmentation图像,视频推理

    源码 https github com HRNet HRNet Semantic Segmentation 我用的是pytorchv1 1分支 这么好的项目居然没有inference代码 于是自己整理了一个简单的demo jit和onnx
  • 【语义分割】1、语义分割超详细介绍

    文章目录 一 分割方法介绍 1 1 Fully Convolutional Networks 2015 1 1 1 FCN 1 1 2 ParseNet 1 2 Encoder Decoder Based Models 1 2 1 通用分割
  • 语义分割常用数据集整理

    语义分割的数据集分为三类 2D图片 2 5D图片 RGB D 3D图片 每一个类别的数据集都提供了像素级的标签 可以用来评估模型性能 同时其中一部分工作用到了数据增强来增加标签样本的数量 一 2D数据 1 PASCAL Visual Obj
  • 使用MXNet完成一个基于FCN的盲道实时语义分割

    使用MXNet完成一个基于FCN的盲道识别语义分割 一点说明 基本原理 测试集效果 数据标注 训练 基本设置 读入数据 网络构建 开始训练 测试 一点说明 前段时间根据gluon的教程动手学深度学习和同学项目实地拍摄的盲道图片完成了一个基于
  • 语义分割总结(未完待续)

    一 综述 由于工作中很长一段时间都是在做语义分割系列的工作 所以这篇文章主要对自己用到的一些方法做个简单的总结 包括其优缺点等 以便日后能够及时复习查看 目前语义分割的方法主要集中在两个大的结构上 1 encode decode的结构 图像
  • 【语义分割】13、SegNeXt

    文章目录 一 背景 二 方法 2 1 Convolutional Encoder 2 2 Decoder 三 效果 论文 SegNeXt Rethinking Convolutional Attention Design for Seman
  • 跑通SOLOV1-V2实例分割代码,并训练自己的数据集。

    系统平台 Ubuntu18 04 硬件平台 RTX2080 super cuda和cudnn版本 cuda10 0 cudnn 7 5 6 pytorch版本 pytorch1 2 0 环境安装 创建solo虚拟环境 conda creat
  • 论文解读:Personalize Segment Anything Model with One Shot

    发表时间 2023 5 4 项目地址 https github com ZrrSkywalker Personalize SAM 体验地址 https huggingface co spaces justin zk Personalize
  • 憨批的语义分割重制版2——语义分割评价指标mIOU的计算

    憨批的语义分割重制版2 语义分割评价指标mIOU的计算 注意事项 学习前言 什么是mIOU mIOU的计算 1 计算混淆矩阵 2 计算IOU 3 计算mIOU 计算miou 注意事项 这是针对重构了的语义分割网络 而不是之前的那个 所以不要
  • 轻量级分割网络总结

    目录 ddrnet STDC Seg 重新思考BiSeNet ExtremeC3Net DFANet NfS SegNet 好像未开源 人像分割
  • 【语义分割】--SegNet理解

    原文地址 SegNet 复现详解 http mi eng cam ac uk projects segnet tutorial html 实现代码 github TensorFlow 简介 SegNet是Cambridge提出旨在解决自动驾

随机推荐