說明:本博文假設你已經做好了自己的資料集,該資料集格式和VOC2007相同。下面是訓練前的一些修改。
(做資料集的過程可以看http://blog.csdn.net/sinat_30071459/article/details/50723212)
Faster-RCNN源碼下載下傳位址:
Matlab版本:https://github.com/ShaoqingRen/faster_rcnn
python版本:https://github.com/rbgirshick/py-faster-rcnn
本文用到的是Matlab版本,在Windows下運作。
python版本的訓練過程:http://blog.csdn.net/sinat_30071459/article/details/51332084
資源下載下傳:https://github.com/ShaoqingRen/faster_rcnn,網頁最後有所有的資源。
準備工作:
(1)
安裝vs2013;
安裝Matlab;
安裝CUDA;
上面的安裝順序最好不要亂,否則可能出現Matlab找不到vs的情況,在Matlab指令行視窗輸入:mbuild -setup,如果出現:
說明Matlab可以找到vs2013。CUDA應在安裝vs2013後再安裝。
(2)
如果你的cuda是6.5,那麼,運作一下:
fetch_data/fetch_caffe_mex_windows_vs2013_cuda65.m
(運作代碼下載下傳失敗的話,用百度雲下載下傳:https://pan.baidu.com/s/1i3m0i0H ,解壓到faster_rcnn-master下)
得到mex檔案。如果不是cuda6.5(如我的是cuda7.5),則需要自己編譯mex檔案,編譯過程參考這裡:Caffe for Faster R-CNN,按步驟做就行了。
也可以下載下傳我編譯得到的檔案(注意cuda版本)。
下載下傳位址:Faster-RCNN(Matlab) external檔案夾
建議還是自己編譯,因為版本問題可能會出錯。在訓練前,可以先下載下傳作者訓練好的模型,測試一下,如果可以的話,就不用自己編譯了。
測試過程:
(1)運作faster_rcnn-master\faster_rcnn_build.m
(2)運作faster_rcnn-master\startup.m
(3)運作faster_rcnn-master\fetch_data\fetch_faster_rcnn_final_model.m 下載下傳訓練好的模型
(下載下傳失敗的話,可以用百度雲下載下傳:https://pan.baidu.com/s/1hsFKmeK ,解壓到faster_rcnn-master下)
(4)修改faster_rcnn-master\experiments\script_faster_rcnn_demo.m的model_dir為你下載下傳的模型,然後運作。
最終得到:
在訓練前請確定你的路徑faster_rcnn-master\external\caffe\matlab\caffe_faster_rcnn下有以下檔案:
(我的opencv版本是2.4.9,cuda版本是7.5,因版本不同上述檔案和你的編譯結果可能會有差異。+caffe檔案夾是從caffe-master或caffe-faster-R-CNN裡拷貝過來的。)
如果你沒有按上面說的測試過,請先運作:
(1)faster_rcnn-master\faster_rcnn_build.m
(2)faster_rcnn-master\startup.m
然後再進行下面的修改。
1 、VOCdevkit2007\VOCcode\VOCinit.m的修改
(1)路徑的修改
VOCopts.annopath=[VOCopts.datadir VOCopts.dataset '/Annotations/%s.xml'];
VOCopts.imgpath=[VOCopts.datadir VOCopts.dataset '/JPEGImages/%s.jpg'];
VOCopts.imgsetpath=[VOCopts.datadir VOCopts.dataset '/ImageSets/Main/%s.txt'];
VOCopts.clsimgsetpath=[VOCopts.datadir VOCopts.dataset '/ImageSets/Main/%s_%s.txt'];
VOCopts.clsrespath=[VOCopts.resdir 'Main/%s_cls_' VOCopts.testset '_%s.txt'];
VOCopts.detrespath=[VOCopts.resdir 'Main/%s_det_' VOCopts.testset '_%s.txt'];
上面這些路徑要正确,第一個是xml标簽路徑;第二個是圖檔的路徑;第三個是放train.txt、val.txt、test.txt和trainval.txt的路徑;第四、五、六個不需要;一般來說這些路徑不用修改,你做的資料集格式和VOC2007相同就行。(圖檔格式預設是jpg,如果是png,修改上面第二行的代碼即可。)
(2)訓練集檔案夾修改
VOCopts.dataset = '你的檔案夾名';
然後将VOC2007路徑注釋掉,上面“你的檔案夾名”是你放Annotations、ImageSets、JPEGImages檔案夾的檔案夾名。
(3)标簽的修改
VOCopts.classes={...
'你的标簽1'
'你的标簽2'
'你的标簽3'
'你的标簽4'};
将其改為你的标簽。
2 、VOCdevkit2007\results
results下需要建立一個檔案夾,名字是1. (2)中“你的檔案夾名”。“你的檔案夾名”下建立一個Main檔案夾。(因為可能會出現找不到檔案夾的錯誤)
3 、VOCdevkit2007\local
local下需要建立一個檔案夾,名字是1. (2)中“你的檔案夾名”。(同上)
4 、function\fast_rcnn\fast_rcnn_train.m
ip.addParamValue('val_iters', 500, @isscalar);
ip.addParamValue('val_interval', 2000, @isscalar);
可能在randperm(N,k)出現錯誤,根據資料集修改。(VOC2007中val有2510張圖像,train有2501張,作者将val_iters設為500,val_interval設為2000,可以參考作者的設定修改,建議和作者一樣val_iters約為val的1/5,val_interval不用修改)
5、function\rpn\proposal_train.m
這裡的問題和fast_rcnn_train.m一樣。
6.imdb\imdb_eval_voc.m
%do_eval = (str2num(year) <= 2007) | ~strcmp(test_set,'test');
do_eval = 1;
注釋掉
do_eval = (str2num(year) <= 2007) | ~strcmp(test_set,'test');
并令其為1,否則測試會出現精度全為0的情況
7. imdb\roidb_from_voc.m
ip.addParamValue('exclude_difficult_samples', true, @islogical);
不包括難識别的樣本,是以設定為true。(如果有就設定為false)
8.網絡模型的修改
(1) models\ fast_rcnn_prototxts\ZF\ train_val.prototxt
input: "bbox_targets"
input_dim: 1 # to be changed on-the-fly to match num ROIs
input_dim: 84 # 根據類别數改,該值為(類别數+1)*4 #################
input_dim: 1
input_dim: 1
input: "bbox_loss_weights"
input_dim: 1 # to be changed on-the-fly to match num ROIs
input_dim: 84 # 根據類别數改,該值為(類别數+1)*4 ############
input_dim: 1
input_dim: 1
layer {
bottom: "fc7"
top: "cls_score"
name: "cls_score"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
type: "InnerProduct"
inner_product_param {
num_output: 21 #根據類别數改該值為類别數+1 #########
layer {
bottom: "fc7"
top: "bbox_pred"
name: "bbox_pred"
type: "InnerProduct"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
inner_product_param {
num_output: 84 #根據類别數改,該值為(類别數+1)*4 ##########
(2) models\ fast_rcnn_prototxts\ZF\ test.prototxt
layer {
bottom: "fc7"
top: "cls_score"
name: "cls_score"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
type: "InnerProduct"
inner_product_param {
num_output: 21 #類别數+1 ##########
layer {
bottom: "fc7"
top: "bbox_pred"
name: "bbox_pred"
type: "InnerProduct"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
inner_product_param {
num_output: 84 #4*(類别數+1) ##########
(3) models\ fast_rcnn_prototxts\ZF_fc6\ train_val.prototxt
input: "bbox_targets"
input_dim: 1 # to be changed on-the-fly to match num ROIs
input_dim: 84 # 4*(類别數+1) ###########
input_dim: 1
input_dim: 1
input: "bbox_loss_weights"
input_dim: 1 # to be changed on-the-fly to match num ROIs
input_dim: 84 # 4*(類别數+1) ###########
input_dim: 1
input_dim: 1
layer {
bottom: "fc7"
top: "cls_score"
name: "cls_score"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
type: "InnerProduct"
inner_product_param {
num_output: 21 #類别數+1 ############
layer {
bottom: "fc7"
top:"bbox_pred"
name:"bbox_pred"
type:"InnerProduct"
param {
lr_mult:1.0
}
param {
lr_mult:2.0
}
inner_product_param{
num_output: 84 #4*(類别數+1) ###########
(4) models\ fast_rcnn_prototxts\ZF_fc6\ test.prototxt
layer {
bottom: "fc7"
top: "cls_score"
name: "cls_score"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
type: "InnerProduct"
inner_product_param {
num_output: 21 類别數+1 #######
layer {
bottom: "fc7"
top: "bbox_pred"
name: "bbox_pred"
type: "InnerProduct"
param {
lr_mult: 1.0
}
param {
lr_mult: 2.0
}
inner_product_param {
num_output: 84 #4*(類别數+1) ##########
9.solver的修改
solver檔案有3個,預設使用的solver是solver_30k40k.prototxt,如下stage 1 rpn,可以在faster_rcnn-master\experiments\+Model\ZF_for_Faster_RCNN_VOC2007.m中更換。
model.stage1_rpn.solver_def_file = fullfile(pwd, 'models', 'rpn_prototxts', 'ZF', 'solver_30k40k.prototxt');%solver_60k80k.prototxt
model.stage1_rpn.test_net_def_file = fullfile(pwd, 'models', 'rpn_prototxts', 'ZF', 'test.prototxt');
model.stage1_rpn.init_net_file = model.pre_trained_net_file;
!!!為防止與之前的模型搞混,訓練前把output檔案夾删除(或改個其他名),還要把imdb\cache中的檔案删除(如果有的話)
更為簡便的方法是直接用你的資料集的Annotations、ImageSets、JPEGImages檔案夾替換VOC2007對應檔案夾,那麼上面隻需進行1.(3)、4、5、7、8的修改。
10.開始訓練
(1).下載下傳預訓練的ZF模型: fetch_data/fetch_model_ZF.m (下載下傳失敗的話用百度雲下載下傳:https://pan.baidu.com/s/1o6zipPS ,解壓到faster_rcnn-master下,預訓練模型參數用于初始化)
(2).運作:
experiments/script_faster_rcnn_VOC2007_ZF.m
經過一會的準備工作,就進入疊代了:
11.訓練完後
訓練完後,不要急着馬上測試,先打開output/faster_rcnn_final/faster_rcnn_VOC2007_ZF檔案夾,打開detection_test.prototxt,作如下修改:
将relu5(包括relu5)前的層删除,并将roi_pool5的bottom改為data和rois。并且前面input: "data"下的input_dim:分别改為1,256,50,50(如果是VGG就是1,512,50,50,其他修改基本一樣),具體如下
input: "data"
input_dim: 1
input_dim: 256
input_dim: 50
input_dim: 50
# ------------------------ layer 1 -----------------------------
layer {
bottom: "data"
bottom: "rois"
top: "pool5"
name: "roi_pool5"
type: "ROIPooling"
roi_pooling_param {
pooled_w: 6
pooled_h: 6
spatial_scale: 0.0625 # (1/16)
}
}
12.測試
訓練完成後,打開\experiments\script_faster_rcnn_demo.m,将模型路徑改成訓練得到的模型路徑:
model_dir = fullfile(pwd, 'output', 'faster_rcnn_final', 'faster_rcnn_VOC2007_ZF')
将測試圖檔改成你的圖檔:
im_names = {'001.jpg', '002.jpg', '003.jpg'};
注意: 如果你的資料集類别比voc2007資料集多,把script_faster_rcnn_demo.m中的showboxes(im, boxes_cell, classes, 'voc')作如下修改: 改為:
showboxes(im, boxes_cell, classes);
或者:
showboxes(im, boxes_cell, classes, 'default');
即去掉‘voc’或将其改為‘default’。
如果測試發現出現的框很多,且這些框沒有目标,可以将門檻值設高一些(預設是0.6):
thres = 0.9;
結果如下: