利用celebA数据集训练MTCNN网络

2023-11-18


有问题可以联系我的邮箱:2487429219@qq.com
关于MTCNN网络可以看我上一篇博客:链接: 人脸检测算法:mtcnn简介

celebA数据集简介

CelebA数据集包含202,599张名人人脸图片,有人脸框,特征点等标注信息,数据量大,可以用来训练mtcnn网络,官方下载链接:celebA

下载链接里共有多个下载选项,我选择使用的是In-The-Wild Images,具体每个选择代表什么含义可以参照网上的celebA数据集详解。
下载
如果官方的链接下载不了或者速度太慢,可以去网上搜bdy链接。

下载完成后会有如下文件:
下载好的文件
其中img_celeba文件夹里面是202, 599名人图片,但是图片不仅仅是包含人的脸部,需要进一步处理,这个后文会说明。
图片
Eval文件夹里的内容在我训练mtcnn时并没有用到,这里不介绍,有兴趣可以去查找celebA数据集介绍。

Anno文件夹里面是对数据的一些标注,在训练人脸检测时,我只用到了人脸框和特征点的标注,对应list_bbox_celeba.txt和list_landmarks_celeba.txt
标注

训练数据的处理

由于我们下载的celebA数据集的数据并非只有人的脸部,所以在数据上我们需要进行一些处理。利用标注好的人脸框从原数据中裁剪出人脸并做好标注,获得训练用的数据集。
并且由于PNet,RNet,ONet所需要的数据大小不同(分别对应12,24,48),我们需要为每个网络准备对应的数据。多说无益,代码如下:
这是iou计算:

import numpy as np


def iou(box, bbox, ismin=False):
    """
    :param box: true box
    :param bbox: other boxes
    :param ismin: Whether to use min mode
    :return: iou value
    """
    x1, y1, x2, y2 = box[0],  box[1],  box[2],  box[3]
    _x1, _y1, _x2, _y2 = bbox[:, 0], bbox[:, 1], bbox[:, 2], bbox[:, 3]
    # the area
    area1 = (x2 - x1) * (y2 - y1)
    area2 = (_x2 - _x1) * (_y2 - _y1)
    # find out the intersection
    xx1, yy1, xx2, yy2 = np.maximum(x1, _x1), np.maximum(y1, _y1), np.minimum(x2, _x2), np.minimum(y2, _y2)
    w, h = np.maximum(0, xx2-xx1), np.maximum(0, yy2-yy1)
    inter_area = w*h
    # the list to save the iou value
    iou_box = np.zeros([bbox.shape[0], ])
    # Prevents zeros from being divided.
    zero_index = np.nonzero(inter_area == 0)
    no_zero = np.nonzero(inter_area)
    iou_box[zero_index] = 0
    if ismin:
        iou_box[no_zero] = inter_area[no_zero] / (np.minimum(area1, area2)[no_zero])
    else:
        iou_box[no_zero] = inter_area[no_zero] / ((area1 + area2 - inter_area)[no_zero])
    return iou_box

if __name__ == '__main__':
    box1 = [100, 100, 200, 200]
    bbox1 = np.array([[100, 90, 200, 200], [120, 120, 180, 180], [200, 200, 300, 300]])
    a = iou(box1, bbox1)
    print(a.shape)
    print(a)


iou的概念不理解的可以看一下我上一篇博客:链接: 人脸检测算法:mtcnn简介
这是获取数据的文件:

from PIL import Image
import os
import numpy as np
import utils


def gen_data(path, size):
    """
    :param path: the path of images and label files
    :param size: the size of the img data
    """
    box_file = os.path.join(path, r'Anno/list_bbox_celeba.txt')  # the box label file
    landmarks_file = os.path.join(path, r'Anno/list_landmarks_celeba.txt')  # the landmarks label file

    saved_path = r'T:\mtcnn\celebA'  # the save path of label files and homologous images
    if not os.path.exists(saved_path):
        os.makedirs(saved_path)
    box_content = open(box_file, 'r', encoding='utf-8').readlines()  # the content of the box label file
    # the content of the landmarks label file
    landmarks_content = open(landmarks_file, 'r', encoding='utf-8').readlines()

    if not os.path.exists(os.path.join(saved_path, str(size))):
        os.makedirs(os.path.join(saved_path, str(size), r'positive'))
        os.makedirs(os.path.join(saved_path, str(size), r'negative'))
        os.makedirs(os.path.join(saved_path, str(size), r'part'))

    positive_num = 0
    negative_num = 0
    part_num = 0

    # txt to save the label
    f_positive = open(os.path.join(saved_path, str(size), 'positive.txt'), 'w', encoding='utf-8')
    f_part = open(os.path.join(saved_path, str(size), 'part.txt'), 'w', encoding='utf-8')
    f_negative = open(os.path.join(saved_path, str(size), 'negative.txt'), 'w', encoding='utf-8')
    f_positive_landmark = open(os.path.join(saved_path, str(size), 'positive_landmark.txt'), 'w', encoding='utf-8')
    f_part_landmark = open(os.path.join(saved_path, str(size), 'part_landmark.txt'), 'w', encoding='utf-8')
    f_negative_landmark = open(os.path.join(saved_path, str(size), 'negative_landmark.txt'), 'w', encoding='utf-8')

    for i, content in enumerate(box_content):
        if i < 2:  # skip the first two lines
            continue
        content_list = content.strip().split()  # the list to save a line of the box file's content
        landmarks_list = landmarks_content[i].strip().split()  # the list to save a line of the landmark file's content
        img = Image.open(os.path.join(os.path.join(path, r'img_celeba'), content_list[0]))
        # the times to use one image
        for _ in range(3):
            # Gets the coordinates and size of the box starting point
            x, y, w, h = int(content_list[1]), int(content_list[2]), int(content_list[3]), int(content_list[4])
            x1, y1, x2, y2 = x, y, x+w, y+h
            # Randomly crop the picture
            cx, cy = int(x + w / 2), int(y + h / 2)
            _cx, _cy = cx + np.random.randint(-0.2 * w, 0.2 * w + 1), cy + np.random.randint(-0.2 * h, 0.2 * h + 1)
            _w, _h = w + np.random.randint(-0.2 * w, 0.2 * w + 1), h + np.random.randint(-0.2 * h, 0.2 * h + 1)
            _x1, _y1, _x2, _y2 = int(_cx - _w / 2), int(_cy - _h / 2), int(_cx + _w / 2), int(_cy + _h / 2)
            # get the landmark point
            ex1, ey1, ex2, ey2 = int(landmarks_list[1]), int(landmarks_list[2]), int(landmarks_list[3]), int(landmarks_list
                                                                                                             [4])
            nx1, ny1, mx1, my1 = int(landmarks_list[5]), int(landmarks_list[6]), int(landmarks_list[7]), int(landmarks_list
                                                                                                             [8])
            mx2, my2 = int(landmarks_list[9]), int(landmarks_list[10])
            nex1, ney1, nex2, ney2 = (ex1 - _x1), (ey1 - _y1), (ex2 - _x1), (ey2 - _y1)
            nnx1, nny1, nmx1, nmy1 = (nx1 - _x1), (ny1 - _y1), (mx1 - _x1), (my1 - _y1)
            nmx2, nmy2 = (mx2 - _x1), (my2 - _y1)

            # Cut out pictures
            crop_img = img.crop([_x1, _y1, _x2, _y2])
            crop_img = crop_img.resize([size, size])

            # calculate the iou value
            iou = utils.iou([x1, y1, x2, y2], np.array([[_x1, _y1, _x2, _y2]]))
            # calculate the offset value
            try:
                _x1_off, _y1_off, _x2_off, _y2_off = (x1 - _x1)/_w, (y1 - _y1)/_h, (x2 - _x2)/_w, (y2 - _y2)/_h
            except ZeroDivisionError:
                continue

            if iou > 0.65:
                crop_img.save(os.path.join(saved_path, str(size), r'positive', r'%s.jpg' % positive_num))
                f_positive.write(f'{positive_num}.jpg 1 {_x1_off} {_y1_off} {_x2_off} {_y2_off}\n')
                f_positive_landmark.write(f"{positive_num}.jpg {nex1/_w} {ney1/_h} {nex2/_w} {ney2/_h} {nnx1/_w} {nny1/_h} {nmx1/_w} {nmy1/_h} "
                                          f"{nmx2/_w} {nmy2/_h}\n")
                f_positive.flush()
                positive_num += 1

            elif iou > 0.4:
                crop_img.save(os.path.join(saved_path, str(size), r'part', r'%s.jpg' % part_num))
                f_part.write(f'{part_num}.jpg 2 {_x1_off} {_y1_off} {_x2_off} {_y2_off}\n')
                f_part_landmark.write(f"{part_num}.jpg {nex1/_w} {ney1/_h} {nex2/_w} {ney2/_h} {nnx1/_w} {nny1/_h} {nmx1/_w} {nmy1/_h} "
                                          f"{nmx2/_w} {nmy2/_h}\n")
                f_part.flush()
                part_num += 1

            elif iou < 0.29:
                crop_img.save(os.path.join(saved_path, str(size), r'negative', r'%s.jpg' % negative_num))
                f_negative.write(f'{negative_num}.jpg 0 0 0 0 0\n')
                f_negative_landmark.write(f'{negative_num}.jpg 0 0 0 0 0 0 0 0 0 0\n')
                negative_num += 1

            # get the negative data
            w, h = img.size
            _x1, _y1 = np.random.randint(0, w), np.random.randint(0, h)
            _w, _h = np.random.randint(0, w - x1), np.random.randint(0, h - y1)
            _x2, _y2 = x1 + _w, y1 + _h
            crop_img1 = img.crop([_x1, _y1, _x2, _y2])
            crop_img1 = crop_img1.resize((size, size))
            iou = utils.iou(np.array([x1, y1, x2, y2]), np.array([[_x1, _y1, _x2, _y2]]))
            if iou < 0.29:
                crop_img1.save(os.path.join(saved_path, str(size), r'negative', r'%s.jpg' % negative_num))
                f_negative.write(f'{negative_num}.jpg 0 0 0 0 0\n')
                f_negative_landmark.write(f'{negative_num}.jpg 0 0 0 0 0 0 0 0 0 0\n')
                negative_num += 1
        if i % 1000 == 0:
            print("%s/202599" % (i+1))
    # close the file
    f_positive.close()
    f_positive_landmark.close()
    f_part.close()
    f_part_landmark.close()
    f_negative.close()
    f_negative_landmark.close()


if __name__ == '__main__':
    gen_data(r'F:\\', 12)

这边我注释可能写的不太清楚,我对一些地方稍作解释:

  1. 我获取的不仅仅是正样本数据,即有人脸的数据,为了训练网络,我需要给网络投喂一些负样本数据,部分样本数据其实可以不需要。获取正样本和负样本数据的方法是,在人脸所在框附近小范围随机裁剪,再和原框位置计算iou,iou大于0.65的记为正样本,0.4到0.65之间的记为部分样本。
    正样本
    部分样本
    获取负样本的方法则较为简单,直接在图片中随机裁剪,iou小于0.29的记为负样本。
    用这样的方法获取样本,可以获取更多的数据,利于训练。

  2. 每张图片我们裁剪多次,以充分利用数据,裁剪后resize成对应大小。

  3. 记录框和特征点的坐标时,采用的是记录偏移量,这样可以提高准确度,网络输出的也是偏移量,所以最后侦测的时候需要反算一波。

网络和训练

下面是网络,这部分没什么好介绍的,看网络结构对着写就可以:

import torch.nn as nn
import torch


class PNet(nn.Module):
    def __init__(self):
        super(PNet, self).__init__()

        self.pre_layer = nn.Sequential(
            nn.Conv2d(3, 10, kernel_size=3, stride=1, padding=1),
            nn.PReLU(),
            nn.MaxPool2d(kernel_size=3, stride=2),
            nn.Conv2d(10, 16, kernel_size=3, stride=1),
            nn.PReLU(),
            nn.Conv2d(16, 32, kernel_size=3, stride=1),
            nn.PReLU(),
        )
        self.offset_layer = nn.Conv2d(32, 4, kernel_size=1, stride=1)
        self.landmark_layer = nn.Conv2d(32, 10, kernel_size=1, stride=1)
        self.confidence_layer = nn.Conv2d(32, 1, kernel_size=1, stride=1)

    def forward(self, x):
        x = self.pre_layer(x)
        offset = self.offset_layer(x)
        landmark = self.landmark_layer(x)
        confidence = torch.sigmoid(self.confidence_layer(x))
        return offset, landmark, confidence


class RNet(nn.Module):
    def __init__(self):
        super(RNet, self).__init__()

        self.pre_layer = nn.Sequential(
            nn.Conv2d(3, 28, kernel_size=3, stride=1, padding=1),
            nn.PReLU(),
            nn.MaxPool2d(kernel_size=3, stride=2),
            nn.Conv2d(28, 48, kernel_size=3, stride=1),
            nn.PReLU(),
            nn.MaxPool2d(kernel_size=3, stride=2),
            nn.Conv2d(48, 64, kernel_size=2, stride=1),
            nn.PReLU(),
        )
        self.linear = nn.Sequential(
            nn.Linear(64 * 3 * 3, 128),
            nn.PReLU()
        )
        self.offset = nn.Linear(128, 4)
        self.landmark = nn.Linear(128, 10)
        self.confidence = nn.Linear(128, 1)

    def forward(self, x):
        x = self.pre_layer(x)
        x = x.view(x.size(0), -1)
        x = self.linear(x)
        offset = self.offset(x)
        landmark = self.landmark(x)
        confidence = torch.sigmoid(self.confidence(x))
        return offset, landmark, confidence


class ONet(nn.Module):
    def __init__(self):
        super(ONet, self).__init__()

        self.pre_layer = nn.Sequential(
            nn.Conv2d(3, 32, kernel_size=3, stride=1, padding=1),
            nn.PReLU(),
            nn.MaxPool2d(kernel_size=3, stride=2),
            nn.Conv2d(32, 64, kernel_size=3, stride=1),
            nn.PReLU(),
            nn.MaxPool2d(kernel_size=3, stride=2),
            nn.Conv2d(64, 64, kernel_size=3, stride=1),
            nn.PReLU(),
            nn.MaxPool2d(kernel_size=2, stride=2),
            nn.Conv2d(64, 128, kernel_size=2, stride=1),
            nn.PReLU(),
        )
        self.linear = nn.Sequential(
            nn.Linear(128*3*3, 256),
            nn.PReLU()
        )
        self.offset = nn.Linear(256, 4)
        self.landmark = nn.Linear(256, 10)
        self.confidence = nn.Linear(256, 1)

    def forward(self, x):
        x = self.pre_layer(x)
        x = x.view(x.size(0), -1)
        x = self.linear(x)
        offset = self.offset(x)
        landmark = self.landmark(x)
        confidence = torch.sigmoid(self.confidence(x))
        return offset, landmark, confidence

这书数据集:

import torch
from torch.utils.data import Dataset
from PIL import Image
from torchvision import transforms
import os


class FaceData1(Dataset):  # 用的celebA 有特征点
    def __init__(self, path):
        self.path = path
        self.dataset = list()
        self.path_box = ["negative", "positive", "part"]
        f_positive_box = open(os.path.join(self.path, "positive.txt"))
        f_part_box = open(os.path.join(self.path, "part.txt"))
        f_negative_box = open(os.path.join(self.path, "negative.txt"))
        self.positive_box = f_positive_box.readlines()
        f_positive_box.close()
        self.part_box = f_part_box.readlines()
        f_part_box.close()
        self.negative_box = f_negative_box.readlines()
        f_negative_box.close()
        self.dataset.extend(self.positive_box)
        self.dataset.extend(self.part_box)
        self.dataset.extend(self.negative_box)
        self.dataset_landmark = list()
        f_positive_landmark = open(os.path.join(self.path, "positive_landmark.txt"))
        f_part_landmark = open(os.path.join(self.path, "part_landmark.txt"))
        f_negative_landmark = open(os.path.join(self.path, "negative_landmark.txt"))
        self.positive_landmark = f_positive_landmark.readlines()
        f_positive_landmark.close()
        self.part_landmark = f_part_landmark.readlines()
        f_part_landmark.close()
        self.negative_landmark = f_negative_landmark.readlines()
        f_negative_landmark.close()
        self.dataset_landmark.extend(self.positive_landmark)
        self.dataset_landmark.extend(self.part_landmark)
        self.dataset_landmark.extend(self.negative_landmark)
        self.transform = transforms.Compose([
            transforms.RandomRotation(15),
            transforms.ToTensor(),
            transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)),
        ])

    def __len__(self):
        return len(self.dataset)

    def __getitem__(self, index):
        offset_data = self.dataset[index].strip().split()  # offset and confidence data
        landmark_data = self.dataset_landmark[index].strip().split()  # landmark data
        offset = torch.Tensor([float(offset_data[2]), float(offset_data[3]), float(offset_data[4]),
                               float(offset_data[5])])
        confidence = torch.Tensor([int(offset_data[1])])
        landmark = torch.Tensor([float(landmark_data[1]), float(landmark_data[2]), float(landmark_data[3]),
                                 float(landmark_data[4]), float(landmark_data[5]), float(landmark_data[6]),
                                 float(landmark_data[7]), float(landmark_data[8]), float(landmark_data[9]),
                                 float(landmark_data[10]), ])
        img = Image.open(os.path.join(self.path, self.path_box[int(offset_data[1])], offset_data[0]))
        img_data = self.transform(img)
        return img_data, confidence, offset, landmark


class FaceData2(Dataset):  # wider-face数据集
    def __init__(self, path):
        self.dataset = list()
        self.path = path
        self.path_box = ["negative", "positive", "part"]
        f_positive_box = open(os.path.join(self.path, "positive.txt"))
        f_part_box = open(os.path.join(self.path, "part.txt"))
        f_negative_box = open(os.path.join(self.path, "negative.txt"))
        self.positive_box = f_positive_box.readlines()
        f_positive_box.close()
        self.part_box = f_part_box.readlines()
        f_part_box.close()
        self.negative_box = f_negative_box.readlines()
        f_negative_box.close()
        self.dataset.extend(self.positive_box)
        self.dataset.extend(self.part_box)
        self.dataset.extend(self.negative_box)
        self.transform = transforms.Compose([
            transforms.RandomRotation(15),
            transforms.ToTensor(),
            transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)),
        ])

    def __len__(self):
        return len(self.dataset)

    def __getitem__(self, index):
        offset_data = self.dataset[index].strip().split()  # offset and confidence data
        offset = torch.Tensor([float(offset_data[2]), float(offset_data[3]), float(offset_data[4]),
                               float(offset_data[5])])
        confidence = torch.Tensor([int(offset_data[1])])
        img = Image.open(os.path.join(self.path, self.path_box[int(offset_data[1])], offset_data[0]))
        img_data = self.transform(img)
        return img_data, confidence, offset


if __name__ == '__main__':
    f1 = FaceData1(r"T:\mtcnn\celebA\48")
    f2 = FaceData2(r"T:\mtcnn\widerface\12")
    f1_img, f1_conf, f1_offset, f1_landmark = f1[1]
    f2_img, f2_conf, f2_offset = f2[1]
    print(f1_conf.shape)
    print(f2_img.shape)








这是训练:

from torch.utils.data import DataLoader
import torch
import sample
import os
import nets
import torch.nn as nn


class Trainer:
    def __init__(self, net, save_path, dataset_path, iscuda=True):
        """
        :param net: the net to train
        :param save_path: the param's save path
        :param dataset_path: dataset path 
        :param iscuda: is to use cuda
        """
        self.net = net  # nets to train
        self.save_path = save_path  # the path to save the trained model
        self.dataset_path = dataset_path  # the dataset path
        self.iscuda = iscuda
        # use cuda to speed up
        if iscuda:
            self.net.cuda()
        # load the saved model
        if os.path.exists(self.save_path):
            self.net.load_state_dict(torch.load(self.save_path))
        # confidence loss function
        self.conf_loss = nn.BCELoss()  # 二分类交叉熵损失函数
        # offset and landmark loss function
        self.label_loss = nn.MSELoss()  # 均方损失函数
        # optimizer
        self.optimizer = torch.optim.Adam(self.net.parameters())

    def train(self):
        face_data = sample.FaceDataSet(self.dataset_path)  # get the sample
        # get the face loader
        face_loader = DataLoader(face_data, batch_size=512, shuffle=True, num_workers=4, drop_last=True)
        for _ in range(50):
            for i, (img, offset, landmark, conf) in enumerate(face_loader):
                if self.iscuda:
                    img = img.cuda()
                    offset = offset.cuda()
                    landmark = landmark.cuda()
                    conf = conf.cuda()
                # use net to predict
                _offset, _landmark, _conf = self.net(img)
                _offset, _landmark, _conf = _offset.view(-1, 4), _landmark.view(-1, 10), _conf.view(-1, 1)
                # print(_conf)
                # get the positive and index
                label_index = torch.nonzero(conf > 0)
                # get the loss
                offset_loss = self.label_loss(_offset[label_index[:, 0]], offset[label_index[:, 0]])
                landmark_loss = self.label_loss(_landmark[label_index[:, 0]], landmark[label_index[:, 0]])
                # get the positive and negative index
                conf_index = torch.nonzero(conf < 2)
                # get the loss
                conf_loss = self.conf_loss(_conf[conf_index[:, 0]], conf[conf_index[:, 0]])
                # all loss
                loss = offset_loss + landmark_loss + conf_loss
                # clear the gradient
                self.optimizer.zero_grad()
                # calculate the gradient
                loss.backward()
                # optimizer
                self.optimizer.step()

                # save the model
                if (i + 1) % 300 == 0:
                    print(f"i:{i//300} loss:{loss.cpu().data} conf:{conf_loss.cpu().data} offset:"
                          f"{offset_loss.cpu().data} landmark:{landmark_loss.cpu().data}")
                    torch.save(self.net.state_dict(), self.save_path)
                    print("Save successfully")


if __name__ == '__main__':
    save_path1 = r'./param/rnet.pt'
    dataset_path1 = r'T:\mtcnn\24'
    net = nets.RNet()
    t = Trainer(net, save_path1, dataset_path1, True)
    t.train()



训练时,我是用的对于置信度和特征点的损失函数是均方差损失函数,对偏移量的损失函数是二分类交叉熵损失函数。

侦测部分

侦测部分我只列出比较重要的部分
这是p网络侦测部分,包含图像金字塔,不了解的可以看我上一篇:

    def p_detect(self, img):
        scale = 1  # the scaling value
        w, h = img.size  # the size of img
        min_length = min(w, h)  # the min edge
        box_list = []   # to save box

        while min_length >= 12:
            img_data = self.transforms(img)  # to tensor
            if self.iscuda:
                img_data = img_data.cuda()
            img_data.unsqueeze_(0)  # Raise a dimension
            _offset, _landmark, _conf = self.pnet(img_data)  # predict
            _offset, _landmark, _conf = _offset[0].cpu().data, _landmark[0].cpu().data, _conf[0][0].cpu().data
            positive_index = torch.nonzero(_conf > 0.6)
			#  这部分是特征反算
            for idx in positive_index:
                # The location in the original image
                _x1 = (idx[1].float() * 2) / scale
                _y1 = (idx[0].float() * 2) / scale
                _x2 = (idx[1].float() * 2 + 12) / scale
                _y2 = (idx[0].float() * 2 + 12) / scale
                # The original image size
                _w, _h = _x2 - _x1, _y2 - _y1
                offset = _offset[:, idx[0], idx[1]]  # offset
                landmark = _landmark[:, idx[0], idx[1]]  # landmark
                # box in the original image
                x1 = offset[0] * _w + _x1
                y1 = offset[1] * _h + _y1
                x2 = offset[2] * _h + _x2
                y2 = offset[3] * _w + _y2
                # landmark in the image
                ex1, ey1, ex2, ey2 = landmark[0]*_w + x1, landmark[1]*_h + y1, landmark[2]*_w + x1, landmark[3]*_h + y1
                nx, ny = landmark[4]*_w + x1, landmark[5]*_h + y1
                mx1, my1, mx2, my2 = landmark[6]*_w + x1, landmark[7]*_h + y1, landmark[8]*_w + x1, landmark[9]*_h + y1

                box_list.append([_conf[idx[0], idx[1]], ex1, ey1, ex2, ey2, nx, ny, mx1, my1, mx2, my2, x1, y1, x2, y2])
            # 缩放
            scale *= 0.7
            min_length *= 0.7
            w, h = int(w*0.7), int(h*0.7)
            img = img.resize([w, h])

        return utils.nms(np.array(box_list), 0.5)

下面是nms:

def nms(boxes, thresh=0.3, ismin=False):
    """
    :param boxes: 框
    :param thresh: 阈值
    :param ismin: 是否除以最小值
    :return: nms抑制后的框
    """
    if boxes.shape[0] == 0:  # 框为空时防止报错
        return np.array([])
    # 根据置信度从大到小排序(argsort默认从小到大,加负号从大到小)
    _boxes = boxes[(-boxes[:, 0]).argsort()]
    r_box = []  # 用于存放抑制后剩余的框
    while _boxes.shape[0] > 1:  # 当剩余框大与0个时
        r_box.append(_boxes[0])  # 添加第一个框
        abox = _boxes[0][11:]
        bbox = _boxes[1:][:, 11:]
        idxs = np.where(iou(abox, bbox, ismin) < thresh)  # iou小于thresh框的索引
        _boxes = _boxes[1:][idxs]  # 取出iou小于thresh的框
    if _boxes.shape[0] > 0:
        r_box.append(_boxes[0])  # 添加最后一个框
    return np.stack(r_box)

剩余的侦测可以仿照PNet的侦测完成,这部分就大家自己写了。

结果展示

下面给几张检测的结果:在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
以上测试图片来自网络。

那么,本文到此结束了,有问题可以联系我的邮箱:2487429219@qq.com
文章有错误的话欢迎大佬指正,不甚感激。
都看到这了,点个赞呗…QwQ…

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

利用celebA数据集训练MTCNN网络 的相关文章

随机推荐

  • LeetCode-1781. 所有子字符串美丽值之和【哈希表,字符串,计数】

    LeetCode 1781 所有子字符串美丽值之和 哈希表 字符串 计数 题目描述 解题思路一 简单暴力 双层循环 重点是分别记录子字符串 i j 的最大最小频率 注意这里当i变的时候 所有字符出现的频率就清理 否则在原来的基础上加就行 解
  • 栈的应用一之括号匹配问题

    括号匹配问题 给一个类似这样的字符串 char a abc 检测三种括号的左右括号是否匹配 分析 先取出一个字符 并判断是不是括号 任意括号 1 不是括号 取下一个字符 2 是括号 1 是左括号 压栈 2 是右括号 和栈顶元素比较 栈空 前
  • 教程:使用C#实现PDF文件和字节数组的相互转换

    字节数组有助于存储或传输数据 同样 PDF文件格式因其功能和兼容性而广受欢迎 可以使用C 语言将PDF文件转换为字节数组 也可以将字节数组转换为PDF文件 这可以帮助更有效地在数据库中存储和归档PDF文件 还可以通过使用字节数组来序列化数据
  • CMake中target_compile_definitions的使用

    CMake中的target compile definitions命令用于向target添加编译定义 其格式如下 target compile definitions
  • 什么是DDoS攻击?如何抵御DDos攻击?

    什么是DDoS攻击 如何抵御DDos攻击 单纯的土豆 2016 05 23 安全报道显示2015年DDoS攻击强度创下新纪录 那么DDoS到底是什么呢 了解一些 对产品经理与后台的同事沟通有好处 分布式拒绝服务 DDoS Distribut
  • mac 卸载 XCode

    1 卸载之前的XCode 命令行执行下面命令 sudo Developer Library uninstall devtools mode all sudo Developer Library uninstall developer fol
  • Springboot 集成 minio分享以及小坑 和 单机部署

    第一步先引入minio依赖
  • C#读取文本文件

    根据文件名到对应文件夹中读取对应文本文件 txt 并返回数据集合 使用流读取类StreamReader 一行一行读取 ReadLine 文本格式 public static List
  • 使用connect by进行级联查询

    connect by可以用于级联查询 常用于对具有树状结构的记录查询某一节点的所有子孙节点或所有祖辈节点 来看一个示例 现假设我们拥有一个菜单表t menu 其中只有三个字段 id name和parent id 它们是具有父子关系的 最顶级
  • Ubuntu22安装Redis

    Redis 是一个开源的在内存存储键值对数据的存储程序 它可以被用作数据库 缓存 信息暂存 并且支持各种数据结构 例如 字符串 哈希值 列表 集合等等 Redis 通过 Redis Sentinel 和 Redis 集群中多个 Redis
  • 解决谷歌人机验证(Captcha)显示问题

    文章目录 前言 一 Header Editor 下载 安装与配置 1 插件下载 2 插件安装 3 插件配置 前言 由于谷歌服务在国内不可用 所以正常访问时某些网址时 经常会出现需要人机验证的问题 影响正常使用 在不使用科学上网的情况下 我们
  • Web启动项目走Https协议(Webpack版,Umi版和Host代理版)

    需求 Web项目的启动 一般是默认的http协议 在某些业务需求时 需要走https来调试 Webpack版本 只需在webpack的devServer中配置就可以了 devServer host 0 0 0 0 port 8080 htt
  • html代码制作的个人简历源代码

  • python requests.get post

    get 方式 首先导入requests库 import requests 定义url url https baidu com 定义请求头 注意的是headers在真实环境中是有很多数据的 我们通过python传输这个数据就要以字典的方式来定
  • windows10系统提示不允许使用你正在尝试的登录方式,请联系网络管理员了解详细信息

    故障截图如图所示 排查方法 1 检查AD域用户账号登录到是否受限 2 在运行框中输入gpedit msc查看组策略 计算机配置 windows设置 本地配置 用户权限分配 拒绝本地登录 guest 参考是否与正常登录的用户电脑设置一致 允许
  • 使用ESP8266接入“天猫精灵”控制七彩灯(WS2812)的颜色/亮度-开源

    目录 演示视频 1 准备工作 1 1 原理 1 2 使用的硬件以及硬件连接图 1 3 开发环境准备 Arduino开发环境 安装ESP8266的扩展 安装blinker Arduino库 安装blinker APP 下载ws2812的驱动库
  • 树莓派_超声波传感器_三色LED

    import RPi GPIO as GPIO import time TRIG 26 ECHO 19 GREEN 6 YELLOW 5 RED 13 GPIO setmode GPIO BCM GPIO setwarnings False
  • 仿射系统和非仿射系统的数学定义

    一 非仿射系统 非仿射系统是指系统的输入是以非线性的形式出现的 例如 u 2 sin u 等 12 非仿射系统可以用下面的一般形式表示 x t f x t g x t h u t 其中 x t 是状态变量 u t 是控制输入 f x 和 g
  • Codeforces-1260-E. Tournament贪心

    题目描述 You are organizing a boxing tournament where n boxers will participate n is a power of 2 and your friend is one of
  • 利用celebA数据集训练MTCNN网络

    利用celebA数据集训练MTCNN网络 celebA数据集简介 训练数据的处理 网络和训练 侦测部分 结果展示 有问题可以联系我的邮箱 2487429219 qq com 关于MTCNN网络可以看我上一篇博客 链接 人脸检测算法 mtcn