61ic电子在线 首页 技术 人工智能 查看内容

神经网络ANN分类器及OpenCV实现

2017-6-8 12:05| 发布者: 61ic| 查看: 745| 评论: 0|原作者: Shiyu|来自: 61ic

摘要: OpenCV中实现神经网络分类非常简单,使用CvANN_MLP定义分类器,CvANN_MLP_TrainParams设置训练参数,添加训练数据,使用train和predict进行训练和预测。
OpenCV中实现神经网络分类非常简单,使用CvANN_MLP定义分类器,CvANN_MLP_TrainParams设置训练参数,添加训练数据,使用train和predict进行训练和预测。

        CvANN_MLP_TrainParams各训练参数说明:
        term_crit:训练算法的终止标准,确定算法的最大迭代次数(对序列反向传播算法,该值乘以训练集大小)和两次迭代间权值变化量。
       Train_method 训练算法,可以是CvANN_MLP_TrainParams::BACKPROP (随机序列反向传播) 或者CvANN_MLP_TrainParams::RPROP (RPROP,默认值)。
        bp_dw_scale(只用于bp网络),该系数乘以计算出的权值梯度,推荐值为0.1。该参数可通过构造函数的param1设置。
        bp_moment_scale(只用于bp网络),该系数乘以前两次迭代的权值之差,平滑权值的随机影响,取值从0-1(0对应的特征被disable)或更大,0.1左右已经足够了。可通过构造函数的param1设置
        rp_dw0 (RPROP only):权值delta的初始化幅值,默认值为0.1,可通过构造函数的param1设置。
        rp_dw_plus(RPROP only):权值delta的增长因子,必须大于1,默认为1.2(根据算法的作者,该值大部分情况下可行)。该参数只能通过修改结构体成员来显式更改。
        rp_dw_minus (RPROP only): 权值delta的减小因子,必须小于1,默认为0.5(根据算法的作者,该值大部分情况下可行)。该参数只能通过修改结构体成员来显式更改。
        rp_dw_min (RPROP only): 权值delta的最小值,必须大于0,默认为FLT_EPSILON,可通过构造函数param2设置
        rp_dw_max (RPROP only): 权值delta的最大值,必须大于1,默认为50,该参数只能通过修改结构体成员来显式更改。
        结构体带有默认构造函数,初始化RPROP 算法参数。也有更多构造函数可以定制参数、选择bp算法,单个参数可在结构体创建后调整,使用构造方法初始化时param1可初始化化多个参数,他们往往是一样的

代码:

#include <opencv2/core/core.hpp>  
#include <opencv2/highgui/highgui.hpp>  
#include <opencv2/ml/ml.hpp>  
#include <iostream>  
#include <string>  

using namespace std;
using namespace cv;

int main()
{
CvANN_MLP bp;
//设置训练参数
CvANN_MLP_TrainParams params;
params.train_method = CvANN_MLP_TrainParams::BACKPROP;//训练算法设置为随机序列反向传播
//该系数乘以计算出的权值梯度,推荐值为0.1。
params.bp_dw_scale = 0.1; 
//该系数乘以前两次迭代的权值之差,平滑权值的随机影响,取值从0-1(0对应的特征被disable)或更大,0.1左右已经足够了。
params.bp_moment_scale = 0.1;
//params.train_method=CvANN_MLP_TrainParams::RPROP;//正向传播
//params.rp_dw0 = 0.1;//权值delta的初始化幅值,默认值为0.1,可通过构造函数的param1设置。 
//params.rp_dw_plus = 1.2;//权值delta的增长因子,必须大于1,默认为1.2(根据算法的作者,该值大部分情况下可行)
//params.rp_dw_minus = 0.5;//权值delta的减小因子,必须小于1,默认为0.5(根据算法的作者,该值大部分情况下可行)
//params.rp_dw_min = FLT_EPSILON;//权值delta的最小值,必须大于0,默认为FLT_EPSILON 
//params.rp_dw_max = 50.;//权值delta的最大值,必须大于1,默认为50 

//定义训练数据
float labels[3][5] = { { 0, 0, 0, 0, 0 }, { 2, 2, 2, 2, 2 }, { 1, 1, 1, 1, 1 } };
Mat labelsMat(3, 5, CV_32FC1, labels);

float trainingData[3][5] = { { 1, 2, 3, 4, 5 }, { 111, 112, 113, 114, 115 }, { 21, 22, 23, 24, 25 } };
Mat trainingDataMat(3, 5, CV_32FC1, trainingData);
Mat layerSizes = (Mat_<int>(1, 5) << 5, 2, 2, 2, 5);//神经元的层级结构,分5层,每层分支为5, 2, 2, 2, 5
bp.create(layerSizes, CvANN_MLP::SIGMOID_SYM);//分类算法
//CvANN_MLP::SIGMOID_SYM
//CvANN_MLP::GAUSSIAN  
//CvANN_MLP::IDENTITY  
bp.train(trainingDataMat, labelsMat, Mat(), Mat(), params);
bp.save("bp.xml");//保存训练结果
//计算每个像素的分类
int width = 512, height = 512;
Mat image = Mat::zeros(height, width, CV_8UC3);
Vec3b green(0, 255, 0), blue(255, 0, 0), red(0,0,255);
// Show the decision regions given by the SVM  
for (int i = 0; i < image.rows; ++i)
for (int j = 0; j < image.cols; ++j)
{
Mat sampleMat = (Mat_<float>(1, 5) << i, j, 0, 0, 0);
Mat responseMat;
bp.predict(sampleMat, responseMat);
float* p = responseMat.ptr<float>(0);
float response = 0.0f;
for (int k = 0; k<5; k++)
{
response += p[k];
}
//labels中0,1,2三种结果,我们分为三种颜色显示
if (response >8)
image.at<Vec3b>(j, i) = green;
else if (response >4)
image.at<Vec3b>(j, i) = blue;
else
image.at<Vec3b>(j, i) = red;
}

imwrite("result.png", image);        // save the image   
imshow("BP Simple Example", image); // show it to the user  
waitKey(0);

}

结果

图片分辨率为512x512,训练数据有3种结果,对应图中3个分类,分别用了3中颜色显示。


鲜花

握手

雷人

路过

鸡蛋

地址 :湖南省株洲市天元区利江花园
合作 Email: administration@61ic.com

  • 关注61ic官方微博
    了解最新动态

  • 关注61ic微信公众号
    这里有好玩的讯息

  • 加入61ic交流群
    不断在这里成长

© 2014-2017 HuNan 湖南索炜达电子科技有限公司 . All rights reserved.
湘公网安备 43020202000020号

Archiver|手机版|小黑屋||湘ICP备13001086号-2 QQ 
返回顶部