• Opencv决策树分类器应用


    机器学习在数据挖掘、计算机视觉、搜索引擎、医学诊断、证券市场分析、语言与手写识别等领域有着十分广泛的应用,特别是在数据分析挥着越来越重要的作用。在机器学习中,决策树是最基础且应用最广泛的归纳推理算法之一,基于决策树算法,衍生出很多出色的集成算法,如random forest、adaboost、gradient tree boostiong等。


    决策树构建的基本步骤如下:


    1.开始,所有记录看作一个节点

    2.遍历每个变量的每一种分割方式,找到最好的分割点

    3.分割成两个节点N1和N2

    4.对N1和N2分别继续执行2-3步,直到每个节点足够“纯”为止




    决策树归纳是从有类标号的训练元中学习决策模型。常用的决策树算法有ID3,C4.5和CART。它们都是采用贪心(即非回溯的)方法,自顶向下递归的分治方法构造。这几个算法选择属性划分的方法各不相同,ID3使用的是信息增益,C4.5使用的是信息增益率,而CART使用的是Gini基尼指数。


    何为信息熵?信息熵是跟所有可能性有关系的。每个可能事件的发生都有个概率。信息熵就是平均而言发生一个事件我们信息量大小。所以数学 上,信息熵其实是信息量的期望。熵越大,说明系统越混乱,携带的信息就越少。熵越小,说明系统越有序,携带的信息就越多。


    以下是根据4个条件的成立与否,来决定是否报考深圳大学,通过这10个样本生成决策树,进而对输入的4个条件来判断是否报考深大,以下是样本数据:




    #include "opencv2/core/core.hpp"
    #include "opencv2/highgui/highgui.hpp"
    #include "opencv2/imgproc/imgproc.hpp"
    #include "opencv2/ml/ml.hpp"
    
    #include <iostream>
    using namespace cv;
    using namespace std;
    
    int main( int argc, char** argv )
    { 
    	//10个训练样本
    	float trainingDat[10][4]={{1,0,0,0},{1,1,0,1},{0,0,1,0},
    	{0,1,1,1},{1,0,0,0},{1,0,1,1},{1,1,1,1},{0,1,1,0},{1,1,0,1},{0,0,0,1}};
    	Mat trainingDataMat(10,4,CV_32FC1,trainingDat);
    
    	//样本的分类结果,作为标签供训练决策树分类器
    	float responses[10]={1,1,0,0,0,0,1,1,1,0}; // 1代表考取,0代表不考
    	Mat responsesMat(10,1,CV_32FC1,responses);
    
    	float priors[4]={1,1,1,1};  //先验概率,这里每个特征的概率都是一样的
    
    	//定义决策树参数
    	CvDTreeParams params(15,  //决策树的最大深度
    		1,   //决策树叶子节点的最小样本数
    		0,   //回归精度,本例中忽略
    		false,  //不使用替代分叉属性
    		25,  //最大的类数量
    		0,   //不需要交叉验证
    		false,  //不需要使用1SE规则
    		false,   //不对分支进行修剪
    		priors   //先验概率
    		);
    	//掩码
    	Mat varTypeMat(5,1,CV_8U,Scalar::all(1));
    
    	CvDTree tree;
    	tree.train(trainingDataMat,  //训练样本
    		CV_ROW_SAMPLE,  //样本矩阵的行表示样本,列表示特征
    		responsesMat,   //样本的响应值矩阵
    		Mat(),
    		Mat(),
    		varTypeMat,   //类形式的掩码
    		Mat(),   //没有属性确实
    		params   //决策树参数
    		);
    	CvMat varImportance;
    	varImportance=tree.getVarImportance();
    	cout<<"各项所占的权重分别为:
    
    ";
    	string item;
    	for(int i=0;i<varImportance.cols*varImportance.rows;i++)
    	{
    		switch (i)
    		{
    		case 0:
    			item="马化腾深大毕业:";
    			break;
    		case 1:
    			item="深大妹子多:";
    			break;
    		case 2:
    			item="深圳台风多:";
    			break;
    		case 3:
    			item="深圳房价高:";
    			break;
    		default:
    			break;
    		}
    		float value =varImportance.data.db[i];
    		cout<<item<<value<<endl<<endl;
    	}
    	float myData[4]={0,1,1,0};  //测试样本
    	Mat myDataMat(4,1,CV_32FC1,myData);
    	double r=tree.predict(myDataMat,Mat(),false)->value; //获得预测结果
    
    	if(r==(double)1.0)
    	{
    		cout<<endl<<"预测结果是: 考取深圳大学"<<endl<<endl;
    	}
    	else
    	{
    		cout<<endl<<"预测结果是: 不考取深圳大学"<<endl<<endl;
    
    	}	
    	system("pause");
    	return 0;
    }


    输入预测参数 0,1,1,0,结果为:




  • 相关阅读:
    HDU2303(数论)大整数求余+素数筛选
    2015 多校联赛 ——HDU5360(贪心+优先队列)
    2015 多校联赛 ——HDU5363(快速幂)
    2015 多校联赛 ——HDU5353(构造)
    2015 多校联赛 ——HDU5348(搜索)
    2015 多校联赛 ——HDU5350(huffman)
    hibernate投影查询
    Hibernate中Criteria的完整用法
    mysql 常用查询语句记录
    ssh整合步骤整理
  • 原文地址:https://www.cnblogs.com/mtcnn/p/9411932.html
Copyright © 2020-2023  润新知