说明
随便找了一批车道线的图片数据制作图森数据集(tusimple),tusimple数据集LaneNet模型的标准数据集,便于后期实现基于LaneNet模型的车道线检测。
内容写的太详细,太细节,所以看上去可能会有一点多或者乱,感谢大家留下宝贵的意见。
一、数据标注
1、数据样式
因为后期要实现的是车道线检测功能,所有数据如下:
2、数据标注
数据标注使用的是labelme标注工具,labelme:
pip install labelme
labelme标注工具的安装就不详细介绍了,我在此篇文章中有详细介绍:labelme工具安装与使用
在终端中输入labelme启动标注工具,加载需要标注的图片:
选择标注框,因为是车道线标注,所以选择Create Line:
进行标注,第一条车道线标签值为line1,以此类推line2、line3、…linen:
一直进行标注,直到全部标注完成,退出:
此时,标注的图片的目录下生成了图片标注对应结果的json格式的文件:
创建这几个文件夹方便完成后续操作(跟着自己的想法来,随便创建)
二、提取指定格式文件
1、分别提取原图和标注结果到指定文件夹
代码如下:
import os
import shutil
#文件存放目录
source_folder =r"C:\Users\xxx\Desktop\AI图像算法\车道线检测\images"#提取文件保存目录
destination_folder =r"C:\Users\xxx\Desktop\AI图像算法\车道线检测\image"# 自动创建输出目录ifnot os.path.exists(destination_folder):
os.makedirs(destination_folder)# 遍历所有子文件夹for parent_folder, _, file_names in os.walk(source_folder):# 遍历当前子文件夹中的所有文件for file_name in file_names:# 只处理图片文件if file_name.endswith(('.jpg')):#提取jpg、jpeg等格式的文件到指定目录# if file_name.endswith(('.json')):#提取json格式的文件到指定目录# 构造源文件路径和目标文件路径
source_path = os.path.join(parent_folder, file_name)
destination_path = os.path.join(destination_folder, file_name)# 复制文件到目标文件夹
shutil.copy(source_path, destination_path)
(1)提取图片
- 运行代码截图如下: 第一个框是原文件夹,第二个框是图片保存的指定文件夹,第三个框是指定提取文件的格式为jpg格式
- 提取结果:
(2)提取标注结果(json格式的文件)
跟上面同理就不做过多赘述:
- 运行截图
- 提取结果:
三、labelme批量处理json文件
labelme使用(labelme_json_to_dataset)批量处理json文件(Labelme 批量转 dataset)
查看pycharm终端中labelme所在的环境:
进入yolov5环境所在的文件夹目录下下,如下图所示找到json_to_dataset.py文件:
打开此文件,json_to_dataset.py文件里面是实现单个处理的,如果要实现批量处理,则用下面代码,把里面的代码全部替换为如下代码,:
import argparse
import json
import os
import os.path as osp
import warnings
import PIL.Image
import yaml
from labelme import utils
import base64
import numpy as np
from skimage import img_as_ubyte
defmain():
warnings.warn("This script is aimed to demonstrate how to convert the\n""JSON file to a single image dataset, and not to handle\n""multiple JSON files to generate a real-use dataset.")
parser = argparse.ArgumentParser()
parser.add_argument('json_file')
parser.add_argument('-o','--out', default=None)
args = parser.parse_args()
json_file = args.json_file
count = os.listdir(json_file)for i inrange(0,len(count)):
path = os.path.join(json_file, count[i])if os.path.isfile(path):
data = json.load(open(path))############################### save_diretory
out_dir1 = osp.basename(path).replace('.','_')
save_file_name = out_dir1
out_dir1 = osp.join(osp.dirname(path), out_dir1)ifnot osp.exists(json_file +'\\'+'labelme_json'):
os.mkdir(json_file +'\\'+'labelme_json')
labelme_json = json_file +'\\'+'labelme_json'
out_dir2 = labelme_json +'\\'+ save_file_name
ifnot osp.exists(out_dir2):
os.mkdir(out_dir2)#########################if data['imageData']:
imageData = data['imageData']else:
imagePath = os.path.join(os.path.dirname(path), data['imagePath'])withopen(imagePath,'rb')as f:
imageData = f.read()
imageData = base64.b64encode(imageData).decode('utf-8')
img = utils.img_b64_to_arr(imageData)
label_name_to_value ={'_background_':0}for shape in data['shapes']:
label_name = shape['label']if label_name in label_name_to_value:
label_value = label_name_to_value[label_name]else:
label_value =len(label_name_to_value)
label_name_to_value[label_name]= label_value
# label_values must be dense
label_values, label_names =[],[]for ln, lv insorted(label_name_to_value.items(), key=lambda x: x[1]):
label_values.append(lv)
label_names.append(ln)assert label_values ==list(range(len(label_values)))
lbl = utils.shapes_to_label(img.shape, data['shapes'], label_name_to_value)
captions =['{}: {}'.format(lv, ln)for ln, lv in label_name_to_value.items()]
lbl_viz = utils.draw_label(lbl, img, captions)
PIL.Image.fromarray(img).save(out_dir2 +'\\'+ save_file_name +'_img.png')# PIL.Image.fromarray(lbl).save(osp.join(out_dir2, 'label.png'))
utils.lblsave(osp.join(out_dir2, save_file_name +'_label.png'), lbl)
PIL.Image.fromarray(lbl_viz).save(out_dir2 +'\\'+ save_file_name +'_label_viz.png')withopen(osp.join(out_dir2,'label_names.txt'),'w')as f:for lbl_name in label_names:
f.write(lbl_name +'\n')
warnings.warn('info.yaml is being replaced by label_names.txt')
info =dict(label_names=label_names)withopen(osp.join(out_dir2,'info.yaml'),'w')as f:
yaml.safe_dump(info, f, default_flow_style=False)# save png to another directoryifnot osp.exists(json_file +'\\'+'mask_png'):
os.mkdir(json_file +'\\'+'mask_png')
mask_save2png_path = json_file +'\\'+'mask_png'
utils.lblsave(osp.join(mask_save2png_path, save_file_name +'_label.png'), lbl)print('Saved to: %s'% out_dir2)if __name__ =='__main__':
main()
进入Anaconda Prompt工具:
进入yolov5环境:
运行如下代码实现批量处理:
labelme_json_to_dataset xxx/xxx/json#标注结果json文件所在的目录
比如说我在这个目录:
我的执行代码如下:
注意,如果此处报错为:
AttributeError: module ‘labelme.utils’ has no attribute ‘draw_label’
则移步到此处解决:解决方案
运行完成后,会在json文件所在的文件夹下生成两个文件夹:labelme_json和mask_png:
两个文件夹下的内容分别如下:
进入labelme_json文件夹下复制粘贴所有文件:
复制到上面事先准备好的data/datset/annotations文件夹下:
四、tusimple数据集处理
代码如下:
import cv2
from skimage import measure, color
from skimage.measure import regionprops
import numpy as np
import os
import copy
defskimageFilter(gray):
binary_warped = copy.copy(gray)
binary_warped[binary_warped >0.1]=255
gray =(np.dstack((gray, gray, gray))*255).astype('uint8')
labels = measure.label(gray[:,:,0], connectivity=1)
dst = color.label2rgb(labels, bg_label=0, bg_color=(0,0,0))
gray = cv2.cvtColor(np.uint8(dst *255), cv2.COLOR_RGB2GRAY)return binary_warped, gray
defmoveImageTodir(path, img_name, targetPath, name):if os.path.isdir(path):
image_name ="dataset/image/"+str(name)+".png"
binary_name ="dataset/gt_image_binary/"+str(name)+".png"
instance_name ="dataset/gt_image_instance/"+str(name)+".png"
os.makedirs("dataset/image/", exist_ok=True)
os.makedirs("dataset/gt_image_binary/", exist_ok=True)
os.makedirs("dataset/gt_image_instance/", exist_ok=True)
train_rows = image_name +" "+ binary_name +" "+ instance_name +"\n"
origin_img = cv2.imread(path +f"/{img_name}_img.png")
origin_img = cv2.resize(origin_img,(1280,720))
cv2.imwrite(targetPath +"/"+ image_name, origin_img)
img = cv2.imread(path +f'/{img_name}_label.png')
img = cv2.resize(img,(1280,720))
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
binary_warped, instance = skimageFilter(gray)
cv2.imwrite(targetPath +"/"+ binary_name, binary_warped)
cv2.imwrite(targetPath +"/"+ instance_name, instance)print("success create data name is : ", train_rows)return train_rows
returnNoneif __name__ =="__main__":
count =1withopen("./dataset/train.txt",'w+')asfile:for images_dir in os.listdir(r"C:\Users\xxx\Desktop\AI图像算法\车道线检测\data"):# images为待labelme标记的文件以及标记后转换的图片位置
dir_name = os.path.join(r"C:\Users\xxx\Desktop\AI图像算法\车道线检测\data", images_dir +"/annotations")# 这两个路径需要根据自己的存放的位置进行修改for annotations_dir in os.listdir(dir_name):
json_dir = os.path.join(dir_name, annotations_dir)if os.path.isdir(json_dir):
train_rows = moveImageTodir(json_dir, annotations_dir,"./",str(count).zfill(4))file.write(train_rows)
count +=1
创建.py文件,复制上面到改文件中,我的文件名为chul.py
复制上面的data/datset/annotations路径,到data处:
代码需要修改的位置:
在chul.py文件的当前目录下创建dataset文件夹:
点击运行chul.py文件,在dataset目录下生成我们需要的数据集,如下:
不过这个代码好像有一点bug,只生成了训练集的train.txt文件,没有生成验证集的val.txt,不过问题不大,我们可以自己创建一个val.txt文件,去train.txt中剪切一部分数据到val.txt中,比例大概按照训练集:验证集=7:2左右。
- 示例: 整个dataset文件夹就是我们需要的数据集。 至此,lanenet模型的标准数据集准备就绪,下期将基于lanenet模型的车道线检测实现。
欢迎大家提出宝贵的意见。
版权归原作者 AI小杨 所有, 如有侵权,请联系我们删除。