如何利用百度AI Studio做一个车牌定位系统
- 百度AI Studio
- PaddlePaddle
- 制作数据集
- 训练
百度AI Studio
百度推出的AI Studio是一个一站式开发平台:囊括了 AI 教程、代码环境、算法算力、数据集,并提供免费的在线云计算,是一个一体化编程环境。这里我们主要使用百度AI studio提供的免费算力:V100显卡,显存16G的配置,每天 12 个小时的免费算力支持(试了一下,一般需要到晚上十二点以后才能申请到,白天基本申请不到GPU的使用权限)。
平台主张使用paddle paddle,但是可以自己进行pytorch的配置(tensorflow应该也可以)。虽然可以配置pytorch环境但是每次重启服务器之后又要重新配置pytorch,如果要配置的环境比较多的话,安装时间也是需要考虑的问题。
AI Studio官网
PaddlePaddle
飞桨(PaddlePaddle)以百度多年的深度学习技术研究和业务应用为基础,集深度学习核心训练和推理框架、基础模型库、端到端开发套件、丰富的工具组件于一体。是中国首个自主研发、功能完备、开源开放的产业级深度学习平台。
制作数据集
准备的车牌图片(198张已标注):车牌
提取码:psl2
1.点击Open Dir,打开文件夹,载入图片;
2.点击Create RectBox,即可在图像上画框标注;
3.输入标签,点击OK;
4.点击Save保存,保存下来的是XML文件;
然后把标注好的图片整理成VOC格式的数据集:
1.创建三个文件夹:Annotations、ImageSets、JPEGImages

将标注生成的XML文件存入Annotations,图片存入JPEGImages,训练集、测试集、验证集的划分情况存入ImageSets。 在ImageSets下创建一个Main文件夹,并且在Mian文件夹下建立label_list.txt,里面存入标注的标签。 此label_list.txt文件复制一份与Annotations、ImageSets、JPEGImages同级位置放置。 label_list.txt内容如下:
2.创建一个py文件,命名为create_list
运行该代码将会生成trainval.txt、train.txt、val.txt、test.txt,将我们标注的1000张图像按照训练集、验证集、测试集的形式做一个划分。
create_list代码如下:
import os
import random
trainval_percent = 0.95 # 训练集验证集总占比
train_percent = 0.9 # 训练集在trainval_percent里的train占比
xmlfilepath = 'D:/Aplate/Annotations'
txtsavepath = 'D:/Aplate/ImageSets/Main'
total_xml = os.listdir(xmlfilepath)
num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)
ftrainval = open('D:/Aplate/ImageSets/Main/trainval.txt', 'w')
ftest = open('D:/Aplate/ImageSets/Main/test.txt', 'w')
ftrain = open('D:/Aplate/ImageSets/Main/train.txt', 'w')
fval = open('D:/Aplate/ImageSets/Main/val.txt', 'w')
for i in list:
name = total_xml[i][:-4] + '\n'
if i in trainval:
ftrainval.write(name)
if i in train:
ftrain.write(name)
else:
fval.write(name)
else:
ftest.write(name)
ftrainval.close()
ftrain.close()
fval.close()
ftest.close()
3.创建一个py文件,命名为list,用于根据在Main文件夹中划分好的数据集进行位置索引,生成含有图像及对应的XML文件的地址信息的文件。
list.py代码如下:
import os
import re
import random
devkit_dir = './'
output_dir = './'
def get_dir(devkit_dir, type):
return os.path.join(devkit_dir, type)
def walk_dir(devkit_dir):
filelist_dir = get_dir(devkit_dir, 'ImageSets/Main')
annotation_dir = get_dir(devkit_dir, 'Annotations')
img_dir = get_dir(devkit_dir, 'JPEGImages')
trainval_list = []
train_list = []
val_list = []
test_list = []
added = set()
for _, _, files in os.walk(filelist_dir):
for fname in files:
print(fname)
img_ann_list = []
if re.match('trainval.txt', fname):
img_ann_list = trainval_list
elif re.match('train.txt', fname):
img_ann_list = train_list
elif re.match('val.txt', fname):
img_ann_list = val_list
elif re.match('test.txt', fname):
img_ann_list = test_list
else:
continue
fpath = os.path.join(filelist_dir, fname)
for line in open(fpath):
name_prefix = line.strip().split()[0]
print(name_prefix)
added.add(name_prefix)
#ann_path = os.path.join(annotation_dir, name_prefix + '.xml')
ann_path = annotation_dir + '/' + name_prefix + '.xml'
print(ann_path)
#img_path = os.path.join(img_dir, name_prefix + '.jpg')
img_path = img_dir + '/' + name_prefix + '.jpg'
assert os.path.isfile(ann_path), 'file %s not found.' % ann_path
assert os.path.isfile(img_path), 'file %s not found.' % img_path
img_ann_list.append((img_path, ann_path))
print(img_ann_list)
return trainval_list, train_list, val_list, test_list
def prepare_filelist(devkit_dir, output_dir):
trainval_list = []
train_list = []
val_list = []
test_list = []
trainval, train, val, test = walk_dir(devkit_dir)
trainval_list.extend(trainval)
train_list.extend(train)
val_list.extend(val)
test_list.extend(test)
#print(trainval)
with open(os.path.join(output_dir, 'trainval.txt'), 'w') as ftrainval:
for item in trainval_list:
ftrainval.write(item[0] + ' ' + item[1] + '\n')
with open(os.path.join(output_dir, 'train.txt'), 'w') as ftrain:
for item in train_list:
ftrain.write(item[0] + ' ' + item[1] + '\n')
with open(os.path.join(output_dir, 'val.txt'), 'w') as fval:
for item in val_list:
fval.write(item[0] + ' ' + item[1] + '\n')
with open(os.path.join(output_dir, 'test.txt'), 'w') as ftest:
for item in test_list:
ftest.write(item[0] + ' ' + item[1] + '\n')
if name == ‘main’:
prepare_filelist(devkit_dir, output_dir)
4.此时创建好的数据集如下:
5.将整个文件拷贝至 ./PaddleDetection/dataset/voc 下,以上全部完成后,还需要修改两个地方,ssd_mobilenet_v1_voc源码中是以20类目标为准设计的,本项目的目标仅为1类。
1)找到 ./PaddleDetection/configs/ssd/ssd_mobilenet_v1_voc.yml文件,修改第12行的num_classes,2代表1个标签加一个背景。
2)找到 ./PaddleDetection/ppdet/data/source/voc.py文件,修改167行的pascalvoc_label()函数,按照前面设定的label_list.txt文件里的标签顺序依次修改,并将多余的内容删掉。
6.至此,整个数据集制作及配置完成。数据集制作完成后,上传至AI Studio,准备开始训练模型。
标签添加完记得按回车
训练
- 数据集准备
1.解压数据集
!unzip data/data25497/plate.zip
2.进入PaddleDetection目录
%cd /home/aistudio/PaddleDetection
/home/aistudio/PaddleDetection
- 环境准备
1.安装Python依赖库
!pip install -r requirements.txt
2.配置python环境变量
%env PYTHONPATH=/home/aistudio/PaddleDetection
env: PYTHONPATH=/home/aistudio/PaddleDetection
3,测试环境
!export PYTHONPATH=`pwd`:$PYTHONPATH
!python ppdet/modeling/tests/test_architectures.py
出现 No module named ‘ppdet’ 是环境配置的问题,有两种解决办法:
1.设置环境变量
%env PYTHONPATH=/home/aistudio/PaddleDetection
2.找到报错的文件添加以下代码
import sys
DIR = '/home/aistudio/PaddleDetection'
sys.path.append(DIR)
测试通过后,就可以进行训练了。
- 开始训练
%cd home/aistudio/PaddleDetection/
!python -u tools/train.py -c configs/ssd/ssd_mobilenet_v1_voc.yml --use_tb=True --eval
训练完成后输出的模型保存在 ./PaddleDetection/output/ssd_mobilenet_v1_voc 文件夹下,本次训练总轮数默认为28000轮,每隔2000轮保存一次模型,以轮次命名的均为阶段性模型,model_final为训练结束时保存的模型,best_model是每次评估后的最佳mAP模型。
测试,查看模型效果
%cd /home/aistudio/PaddleDetection/
!python tools/infer.py -c configs/ssd/ssd_mobilenet_v1_voc.yml --infer_img=/home/aistudio/1.jpg