0


【数据集处理】制作自己的tusimple数据集(图森数据集)(LaneNet模型数据集)

说明

随便找了一批车道线的图片数据制作图森数据集(tusimple),tusimple数据集LaneNet模型的标准数据集,便于后期实现基于LaneNet模型的车道线检测。
内容写的太详细,太细节,所以看上去可能会有一点多或者乱,感谢大家留下宝贵的意见。

一、数据标注

1、数据样式

因为后期要实现的是车道线检测功能,所有数据如下:
在这里插入图片描述

2、数据标注

数据标注使用的是labelme标注工具,labelme:

pip install labelme

labelme标注工具的安装就不详细介绍了,我在此篇文章中有详细介绍:labelme工具安装与使用

在终端中输入labelme启动标注工具,加载需要标注的图片:
在这里插入图片描述
选择标注框,因为是车道线标注,所以选择Create Line:
在这里插入图片描述
进行标注,第一条车道线标签值为line1,以此类推line2、line3、…linen:
在这里插入图片描述
一直进行标注,直到全部标注完成,退出:
在这里插入图片描述
此时,标注的图片的目录下生成了图片标注对应结果的json格式的文件:
在这里插入图片描述
创建这几个文件夹方便完成后续操作(跟着自己的想法来,随便创建)
在这里插入图片描述

二、提取指定格式文件

1、分别提取原图和标注结果到指定文件夹

代码如下:

import os
import shutil

#文件存放目录
source_folder =r"C:\Users\xxx\Desktop\AI图像算法\车道线检测\images"#提取文件保存目录
destination_folder =r"C:\Users\xxx\Desktop\AI图像算法\车道线检测\image"# 自动创建输出目录ifnot os.path.exists(destination_folder):
    os.makedirs(destination_folder)# 遍历所有子文件夹for parent_folder, _, file_names in os.walk(source_folder):# 遍历当前子文件夹中的所有文件for file_name in file_names:# 只处理图片文件if file_name.endswith(('.jpg')):#提取jpg、jpeg等格式的文件到指定目录# if file_name.endswith(('.json')):#提取json格式的文件到指定目录# 构造源文件路径和目标文件路径
            source_path = os.path.join(parent_folder, file_name)
            destination_path = os.path.join(destination_folder, file_name)# 复制文件到目标文件夹
            shutil.copy(source_path, destination_path)
(1)提取图片
  • 运行代码截图如下: 第一个框是原文件夹,第二个框是图片保存的指定文件夹,第三个框是指定提取文件的格式为jpg格式在这里插入图片描述
  • 提取结果:在这里插入图片描述
(2)提取标注结果(json格式的文件)

跟上面同理就不做过多赘述:

  • 运行截图在这里插入图片描述
  • 提取结果:在这里插入图片描述

三、labelme批量处理json文件

labelme使用(labelme_json_to_dataset)批量处理json文件(Labelme 批量转 dataset)
查看pycharm终端中labelme所在的环境:
在这里插入图片描述
进入yolov5环境所在的文件夹目录下下,如下图所示找到json_to_dataset.py文件:
在这里插入图片描述
打开此文件,json_to_dataset.py文件里面是实现单个处理的,如果要实现批量处理,则用下面代码,把里面的代码全部替换为如下代码,:

import argparse
import json
import os
import os.path as osp
import warnings

import PIL.Image
import yaml

from labelme import utils
import base64

import numpy as np
from skimage import img_as_ubyte

defmain():
    warnings.warn("This script is aimed to demonstrate how to convert the\n""JSON file to a single image dataset, and not to handle\n""multiple JSON files to generate a real-use dataset.")
    parser = argparse.ArgumentParser()
    parser.add_argument('json_file')
    parser.add_argument('-o','--out', default=None)
    args = parser.parse_args()

    json_file = args.json_file

    count = os.listdir(json_file)for i inrange(0,len(count)):
        path = os.path.join(json_file, count[i])if os.path.isfile(path):
            data = json.load(open(path))############################### save_diretory
            out_dir1 = osp.basename(path).replace('.','_')
            save_file_name = out_dir1
            out_dir1 = osp.join(osp.dirname(path), out_dir1)ifnot osp.exists(json_file +'\\'+'labelme_json'):
                os.mkdir(json_file +'\\'+'labelme_json')
            labelme_json = json_file +'\\'+'labelme_json'

            out_dir2 = labelme_json +'\\'+ save_file_name
            ifnot osp.exists(out_dir2):
                os.mkdir(out_dir2)#########################if data['imageData']:
                imageData = data['imageData']else:
                imagePath = os.path.join(os.path.dirname(path), data['imagePath'])withopen(imagePath,'rb')as f:
                    imageData = f.read()
                    imageData = base64.b64encode(imageData).decode('utf-8')
            img = utils.img_b64_to_arr(imageData)
            label_name_to_value ={'_background_':0}for shape in data['shapes']:
                label_name = shape['label']if label_name in label_name_to_value:
                    label_value = label_name_to_value[label_name]else:
                    label_value =len(label_name_to_value)
                    label_name_to_value[label_name]= label_value

            # label_values must be dense
            label_values, label_names =[],[]for ln, lv insorted(label_name_to_value.items(), key=lambda x: x[1]):
                label_values.append(lv)
                label_names.append(ln)assert label_values ==list(range(len(label_values)))

            lbl = utils.shapes_to_label(img.shape, data['shapes'], label_name_to_value)

            captions =['{}: {}'.format(lv, ln)for ln, lv in label_name_to_value.items()]
            lbl_viz = utils.draw_label(lbl, img, captions)

            PIL.Image.fromarray(img).save(out_dir2 +'\\'+ save_file_name +'_img.png')# PIL.Image.fromarray(lbl).save(osp.join(out_dir2, 'label.png'))
            utils.lblsave(osp.join(out_dir2, save_file_name +'_label.png'), lbl)
            PIL.Image.fromarray(lbl_viz).save(out_dir2 +'\\'+ save_file_name +'_label_viz.png')withopen(osp.join(out_dir2,'label_names.txt'),'w')as f:for lbl_name in label_names:
                    f.write(lbl_name +'\n')

            warnings.warn('info.yaml is being replaced by label_names.txt')
            info =dict(label_names=label_names)withopen(osp.join(out_dir2,'info.yaml'),'w')as f:
                yaml.safe_dump(info, f, default_flow_style=False)# save png to another directoryifnot osp.exists(json_file +'\\'+'mask_png'):
                os.mkdir(json_file +'\\'+'mask_png')
            mask_save2png_path = json_file +'\\'+'mask_png'

            utils.lblsave(osp.join(mask_save2png_path, save_file_name +'_label.png'), lbl)print('Saved to: %s'% out_dir2)if __name__ =='__main__':
    main()

进入Anaconda Prompt工具:
进入yolov5环境:在这里插入图片描述
运行如下代码实现批量处理:

labelme_json_to_dataset  xxx/xxx/json#标注结果json文件所在的目录

比如说我在这个目录:
在这里插入图片描述
我的执行代码如下:
在这里插入图片描述
注意,如果此处报错为:

AttributeError: module ‘labelme.utils’ has no attribute ‘draw_label’

则移步到此处解决:解决方案
运行完成后,会在json文件所在的文件夹下生成两个文件夹:labelme_json和mask_png:
在这里插入图片描述
两个文件夹下的内容分别如下:
在这里插入图片描述
在这里插入图片描述
进入labelme_json文件夹下复制粘贴所有文件:
在这里插入图片描述
复制到上面事先准备好的data/datset/annotations文件夹下:
在这里插入图片描述

四、tusimple数据集处理

代码如下:

import cv2
from skimage import measure, color
from skimage.measure import regionprops
import numpy as np
import os
import copy

defskimageFilter(gray):
    binary_warped = copy.copy(gray)
    binary_warped[binary_warped >0.1]=255

    gray =(np.dstack((gray, gray, gray))*255).astype('uint8')
    labels = measure.label(gray[:,:,0], connectivity=1)
    dst = color.label2rgb(labels, bg_label=0, bg_color=(0,0,0))
    gray = cv2.cvtColor(np.uint8(dst *255), cv2.COLOR_RGB2GRAY)return binary_warped, gray

defmoveImageTodir(path, img_name, targetPath, name):if os.path.isdir(path):
        image_name ="dataset/image/"+str(name)+".png"
        binary_name ="dataset/gt_image_binary/"+str(name)+".png"
        instance_name ="dataset/gt_image_instance/"+str(name)+".png"
        os.makedirs("dataset/image/", exist_ok=True)
        os.makedirs("dataset/gt_image_binary/", exist_ok=True)
        os.makedirs("dataset/gt_image_instance/", exist_ok=True)

        train_rows = image_name +" "+ binary_name +" "+ instance_name +"\n"

        origin_img = cv2.imread(path +f"/{img_name}_img.png")
        origin_img = cv2.resize(origin_img,(1280,720))
        cv2.imwrite(targetPath +"/"+ image_name, origin_img)

        img = cv2.imread(path +f'/{img_name}_label.png')
        img = cv2.resize(img,(1280,720))
        gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
        binary_warped, instance = skimageFilter(gray)
        cv2.imwrite(targetPath +"/"+ binary_name, binary_warped)
        cv2.imwrite(targetPath +"/"+ instance_name, instance)print("success create data name is : ", train_rows)return train_rows
    returnNoneif __name__ =="__main__":

    count =1withopen("./dataset/train.txt",'w+')asfile:for images_dir in os.listdir(r"C:\Users\xxx\Desktop\AI图像算法\车道线检测\data"):# images为待labelme标记的文件以及标记后转换的图片位置
            dir_name = os.path.join(r"C:\Users\xxx\Desktop\AI图像算法\车道线检测\data", images_dir +"/annotations")# 这两个路径需要根据自己的存放的位置进行修改for annotations_dir in os.listdir(dir_name):
                json_dir = os.path.join(dir_name, annotations_dir)if os.path.isdir(json_dir):
                    train_rows = moveImageTodir(json_dir, annotations_dir,"./",str(count).zfill(4))file.write(train_rows)
                    count +=1

创建.py文件,复制上面到改文件中,我的文件名为chul.py

复制上面的data/datset/annotations路径,到data处:
在这里插入图片描述
代码需要修改的位置:
在这里插入图片描述
在chul.py文件的当前目录下创建dataset文件夹:
在这里插入图片描述
点击运行chul.py文件,在dataset目录下生成我们需要的数据集,如下:
在这里插入图片描述
不过这个代码好像有一点bug,只生成了训练集的train.txt文件,没有生成验证集的val.txt,不过问题不大,我们可以自己创建一个val.txt文件,去train.txt中剪切一部分数据到val.txt中,比例大概按照训练集:验证集=7:2左右。

  • 示例:在这里插入图片描述 整个dataset文件夹就是我们需要的数据集。 至此,lanenet模型的标准数据集准备就绪,下期将基于lanenet模型的车道线检测实现。

欢迎大家提出宝贵的意见。


本文转载自: https://blog.csdn.net/weixin_45736855/article/details/129424116
版权归原作者 AI小杨 所有, 如有侵权,请联系我们删除。

“【数据集处理】制作自己的tusimple数据集(图森数据集)(LaneNet模型数据集)”的评论:

还没有评论