0


Pytorch版Mask-RCNN图像分割实战(自定义数据集)

Mask-RCNN概述

Mask R-CNN是一种广泛应用于目标检测和图像分割任务的深度学习模型,它是由Faster R-CNN(一种快速目标检测模型)和Mask R-CNN(一种实例分割模型)组成的。Mask R-CNN将Faster R-CNN中的RPN和RoI Pooling层替换成了RPN和RoI Align层,以实现像素级的图像分割,能够同时检测出多个对象,并对每个对象进行像素级的分割。

Mask R-CNN的主要思路是在Faster R-CNN的基础上增加一个分支网络,即Mask分支,该分支网络可以对检测出来的物体进行像素级的分割操作,得到每个物体实例的分割掩码。与 Faster R-CNN 相似, Mask R-CNN同样使用RPN产生候选框,在RoIPooling层和ROIAlign层中对候选框中的特征进行提取。在RoIAlign层中,Mask R-CNN通过双线性插值从特征图中提取出精确的特征,然后送入Mask分支中进行像素级别的分割,最终得到每个实例的精确掩码。

Facebook AI Research 开源了 Faster R-CNN 和 Mask R-CNN 的 PyTorch 1.0 实现基准:MaskRCNN-Benchmark。相比 Detectron 和 mmdetection,MaskRCNN-Benchmark 的性能相当,并拥有更快的训练速度和更低的 GPU 内存占用

优势如下:

  • PyTorch 1.0:相当或者超越 Detectron 准确率的 RPN、Faster R-CNN、Mask R-CNN 实现;
  • 非常快:训练速度是 Detectron 的两倍,是 mmdection 的 1.3 倍;
  • 节省内存:在训练过程中使用的 GPU 内存比 mmdetection 少大约 500MB;
  • 使用多 GPU 训练和推理;
  • 批量化推理:可以在每 GPU 每批量上使用多张图像进行推理;
  • 支持 CPU 推理:可以在推理时间内于 CPU 上运行。
  • 提供几乎所有参考 Mask R-CNN 和 Faster R-CNN 配置的预训练模型,具有 1x 的 schedule。

基于Mask RCNN开源项目源码地址:https://github.com/facebookresearch/maskrcnn-benchmark

训练自己数据步骤

  • 安装Labelme
  • 标注数据
  • 源码需要改动地方
  • 训练之后测试结果

工具Labelme

1、安装labelme工具

  1. pip install labelme
  2. pip install pyqt5
  3. pip install pillow==4.0.0

标注数据

1、使用labelme标注得到.json文件,将.json文件和原始图片放在一个文件夹里;

2、批量量转换:将labelme标注数据转换成coco数据集;

  • 运行labelmetococo.py文件;
  • 在我当前目录的dataset文件夹下,生成coco文件夹;
  • coco文件夹下有annotations文件夹和images文件夹;
  • annotations文件夹存放2个json文件;
  • images文件夹存放train (存放:划分的用于训练的图像数据)和val (存放:划分的用于验证的图像数据) 两个文件夹;

下面是labelmetococo.py文件代码:

  1. import os
  2. import json
  3. import numpy as np
  4. import glob
  5. import shutil
  6. import cv2
  7. from sklearn.model_selection import train_test_split
  8. np.random.seed(41)
  9. # 0为背景
  10. classname_to_id = {
  11. "class1": 1
  12. }
  13. # 注意这里
  14. # 需要从1开始把对应的Label名字写入:这里根据自己的Lable名字修改
  15. class Lableme2CoCo:
  16. def __init__(self):
  17. self.images = []
  18. self.annotations = []
  19. self.categories = []
  20. self.img_id = 0
  21. self.ann_id = 0
  22. def save_coco_json(self, instance, save_path):
  23. json.dump(instance, open(save_path, 'w', encoding='utf-8'), ensure_ascii=False, indent=1) # indent=2 更加美观显示
  24. # 由json文件构建COCO
  25. def to_coco(self, json_path_list):
  26. self._init_categories()
  27. for json_path in json_path_list:
  28. obj = self.read_jsonfile(json_path)
  29. self.images.append(self._image(obj, json_path))
  30. shapes = obj['shapes']
  31. for shape in shapes:
  32. annotation = self._annotation(shape)
  33. self.annotations.append(annotation)
  34. self.ann_id += 1
  35. self.img_id += 1
  36. instance = {}
  37. instance['info'] = 'spytensor created'
  38. instance['license'] = ['license']
  39. instance['images'] = self.images
  40. instance['annotations'] = self.annotations
  41. instance['categories'] = self.categories
  42. return instance
  43. # 构建类别
  44. def _init_categories(self):
  45. for k, v in classname_to_id.items():
  46. category = {}
  47. category['id'] = v
  48. category['name'] = k
  49. self.categories.append(category)
  50. # 构建COCO的image字段
  51. def _image(self, obj, path):
  52. image = {}
  53. from labelme import utils
  54. img_x = utils.img_b64_to_arr(obj['imageData'])
  55. h, w = img_x.shape[:-1]
  56. image['height'] = h
  57. image['width'] = w
  58. image['id'] = self.img_id
  59. image['file_name'] = os.path.basename(path).replace(".json", ".jpg")
  60. return image
  61. # 构建COCO的annotation字段
  62. def _annotation(self, shape):
  63. # print('shape', shape)
  64. label = shape['label']
  65. points = shape['points']
  66. annotation = {}
  67. annotation['id'] = self.ann_id
  68. annotation['image_id'] = self.img_id
  69. annotation['category_id'] = int(classname_to_id[label])
  70. annotation['segmentation'] = [np.asarray(points).flatten().tolist()]
  71. annotation['bbox'] = self._get_box(points)
  72. annotation['iscrowd'] = 0
  73. annotation['area'] = 1.0
  74. return annotation
  75. # 读取json文件,返回一个json对象
  76. def read_jsonfile(self, path):
  77. with open(path, "r", encoding='utf-8') as f:
  78. return json.load(f)
  79. # COCO的格式: [x1,y1,w,h] 对应COCO的bbox格式
  80. def _get_box(self, points):
  81. min_x = min_y = np.inf
  82. max_x = max_y = 0
  83. for x, y in points:
  84. min_x = min(min_x, x)
  85. min_y = min(min_y, y)
  86. max_x = max(max_x, x)
  87. max_y = max(max_y, y)
  88. return [min_x, min_y, max_x - min_x, max_y - min_y]
  89. if __name__ == '__main__':
  90. # 需要把labelme_path修改为自己放images和json文件的路径
  91. labelme_path = "D:\\maskrcnn-benchmark-main\\dataset\\gps\\"
  92. # saved_coco_path = "../../../xianjin_data-3/"
  93. saved_coco_path = "D:\\maskrcnn-benchmark-main\\dataset\\"
  94. # saved_coco_path = "./"
  95. # 要把saved_coco_path修改为自己放生成COCO的路径,这里会在我当前COCO的文件夹下建立生成coco文件夹。
  96. print('reading...')
  97. # 创建文件
  98. if not os.path.exists("%scoco/annotations/" % saved_coco_path):
  99. os.makedirs("%scoco/annotations/" % saved_coco_path)
  100. if not os.path.exists("%scoco/images/train2017/" % saved_coco_path):
  101. os.makedirs("%scoco/images/train2017" % saved_coco_path)
  102. if not os.path.exists("%scoco/images/val2017/" % saved_coco_path):
  103. os.makedirs("%scoco/images/val2017" % saved_coco_path)
  104. # 获取images目录下所有的joson文件列表
  105. print(labelme_path + "\*.json")
  106. json_list_path = glob.glob(labelme_path + "\*.json")
  107. # json_list_path = glob.glob(labelme_path + "\*.png")
  108. print('json_list_path: ', len(json_list_path))
  109. # 数据划分,这里没有区分val2017和tran2017目录,所有图片都放在images目录下
  110. train_path, val_path = train_test_split(json_list_path, test_size=0.1, train_size=0.9)
  111. # 将训练集和验证集的比例是9:1,可以根据自己想要的比例修改。
  112. print("train_n:", len(train_path), 'val_n:', len(val_path))
  113. # 把训练集转化为COCO的json格式
  114. l2c_train = Lableme2CoCo()
  115. train_instance = l2c_train.to_coco(train_path)
  116. l2c_train.save_coco_json(train_instance, '%scoco/annotations/instances_train2017.json' % saved_coco_path)
  117. for file in train_path:
  118. # 存入png格式图片,原始图片有两种格式.png,.jpg
  119. # print("这里测试一下file:"+file)
  120. img_name = file.replace('json', 'png')
  121. # print("这里测试一下img_name:" + img_name)
  122. temp_img = cv2.imread(img_name)
  123. # 图像为空说明为.jpg格式
  124. if temp_img is None:
  125. img_name_jpg = img_name.replace('png', 'jpg')
  126. temp_img = cv2.imread(img_name_jpg)
  127. filenames = img_name.split("\\")[-1]
  128. cv2.imwrite("D:\\maskrcnn-benchmark-main\\dataset\\coco\\images\\train2017/{}".format(filenames), temp_img)
  129. # print(temp_img) #测试图像读取是否正确
  130. for file in val_path:
  131. # shutil.copy(file.replace("json", "jpg"), "%scoco/images/val2017/" % saved_coco_path)
  132. img_name = file.replace('json', 'png')
  133. temp_img = cv2.imread(img_name)
  134. if temp_img is None:
  135. img_name_jpg = img_name.replace('png', 'jpg')
  136. temp_img = cv2.imread(img_name_jpg)
  137. filenames = img_name.split("\\")[-1]
  138. cv2.imwrite("D:\\maskrcnn-benchmark-main\\dataset\\coco\\images\\val2017/{}".format(filenames), temp_img)
  139. # 把验证集转化为COCO的json格式
  140. l2c_val = Lableme2CoCo()
  141. val_instance = l2c_val.to_coco(val_path)
  142. l2c_val.save_coco_json(val_instance, '%scoco/annotations/instances_val2017.json' % saved_coco_path)

执行程序,生成的文件夹

源码需要改动地方:

假设你此时位于maskrcnn-benchmark/目录下,datasets的组织结构如下

  1. datasets
  2. -> coco
  3. -> annotations
  4. -> instances_train2014.json //训练标签
  5. -> instances_test2014.json //验证标签
  6. -> train2014 //训练图片
  7. -> val2014 //验证图

为了方便建议仿照上面这样的coco标准命名,但上面的所有名字都不是一定要求这样写的,自己可以合理命名,只要程序中的各个与数据路径有关的地方一一对应上即可。

  1. maskrcnn-benchmark/configse/2e_mask_rcnn_R_50_FPN_1x.yaml为例下面蓝色圈出来的地方必须修改:
  2. 一个是类别,如果这里面没有类别,与default.py中的一致,那么程序会自动在defaults.py中寻找。
  3. 特别还有一个是DATASETS,这个是用来指定本次训练所使用的数据集,为了方便我这里没有修改,就借用了coco_2014_train的名字,名字可以随意起,但是在maskrcnn-benchmark/maskrcnn_benchmark/config/paths_catalog.py中需要有对应的数据集的路径描述,且该路径要与datasets/coco/里面的文件对应起来
  4. BASE_LR,迭代次数,保存间隔根据自己模型需要而定
  5. 修改maskrcnn_benchmark/utils下的checkpoint,需要注释65- 68行(self.optimizer.load_state.. self.scheduler.load_...)

将myconfig下的paths_catalogs文件中的数据集路径改为自己的;

  1. maskrcnn-benchmark/maskrcnn_benchmark/config/defaults.py

这是模型的一个总的默认配置文件,需要作出一定修改

  1. _C.INPUT = CN()
  2. # Size of the smallest side of the image during training
  3. _C.INPUT.MIN_SIZE_TRAIN = (400,) # (800,)
  4. # Maximum size of the side of the image during training
  5. _C.INPUT.MAX_SIZE_TRAIN = 667
  6. # Size of the smallest side of the image during testing
  7. _C.INPUT.MIN_SIZE_TEST = 400
  8. # Maximum size of the side of the image during testing
  9. _C.INPUT.MAX_SIZE_TEST = 667
  10. #下面的两处修改也需要特别注意!!!必须和自己的类别相对应,如果没有分类,那么就为2
  11. _C.MODEL.ROI_BOX_HEAD.NUM_CLASSES = 2 #类别数量加1
  12. _C.MODEL.RETINANET.NUM_CLASSES = 2 #类别数量加1


本文转载自: https://blog.csdn.net/qq_31807039/article/details/130575381
版权归原作者 数虫 所有, 如有侵权,请联系我们删除。

“Pytorch版Mask-RCNN图像分割实战(自定义数据集)”的评论:

还没有评论