转载请注明出处!
!!
http://blog.csdn.net/zhonghuan1992
目标跟踪--CamShift
CamShift全称是ContinuouslyAdaptive Mean Shift,即连续自适应的MeanShift算法。而MeanShift算法,首先得对MeanShift算法有个初步的了解,可以參考这里。而CamShift是在MeanShift的基础上,依据上一帧的结果。来调整下一帧的中心位置和窗体大小,所以。当跟踪的目标在视频中发生变化时,可以对这个变化有一定的调整。
OpenCV自带样例中的camShift算法,能够分为三个部分:(引用自这里 http://blog.csdn.net/carson2005/article/details/7439125)
一、计算色彩投影图(反向投影):
(1)为了降低光照变化对目标跟踪的影响,首先将图像从RGB颜色空间转换到HSV颜色空间。
(2)对H分量进行直方图统计,直方图代表了不同H分量取值出现的概率。或者说能够据此查找出H分量的大小为x时的概率或像素个数。即,得到颜色概率查找表;
(3)将图像中每一个像素的值用其颜色出现的概率进行替换,由此得到颜色概率分布图;
以上三个步骤称之为反向投影,须要提醒的是。颜色概率分布图是一个灰度图像。
二、meanShift寻优
前面提到过meanShift算法(http://blog.csdn.net/carson2005/article/details/7337432)是一种非參数概率密度预计方法,它通过不断迭代计算得到最优搜索窗体的位置和大小。
三、camShift跟踪算法
前面提到,camShift事实上就是在视频序列的每一帧其中都运用meanShift,并将上一帧的meanShift结果作为下一帧的初始值,如此不断循环迭代,就能够实现目标的跟踪了。
在openCV中自带有camShift函数。老看一下实现,代码中有部分解释。(凝视功劳来自http://www.cnblogs.com/tornadomeet/archive/2012/03/15/2398769.html)
#include "opencv2/video/tracking.hpp" #include "opencv2/imgproc/imgproc.hpp" #include "opencv2/highgui/highgui.hpp" #include <iostream> #include <ctype.h> using namespace cv; using namespace std; Mat image; bool backprojMode = false; //表示是否要进入反向投影模式。ture表示准备进入反向投影模式 bool selectObject = false;//代表是否在选要跟踪的初始目标,true表示正在用鼠标选择 int trackObject = 0; //代表跟踪目标数目 bool showHist = true;//是否显示直方图 Point origin;//用于保存鼠标选择第一次单击时点的位置 Rect selection;//用于保存鼠标选择的矩形框 int vmin = 10, vmax =256, smin = 30; void onMouse(int event, int x, int y, int, void*) { if (selectObject)//仅仅有当鼠标左键按下去时才有效,然后通过if里面代码就能够确定所选择的矩形区域selection了 { selection.x = MIN(x, origin.x);//矩形左上角顶点坐标 selection.y = MIN(y, origin.y); selection.width = std::abs(x - origin.x);//矩形宽 selection.height = std::abs(y - origin.y);//矩形高 selection &= Rect(0, 0, image.cols,image.rows);//用于确保所选的矩形区域在图片范围内 } switch (event) { case CV_EVENT_LBUTTONDOWN: origin = Point(x, y); selection = Rect(x, y, 0, 0);//鼠标刚按下去时初始化了一个矩形区域 selectObject = true; break; case CV_EVENT_LBUTTONUP: selectObject = false; if (selection.width> 0 && selection.height > 0) trackObject = -1; break; } } void help() { cout << " This is ademo that shows mean-shift based tracking " "You select acolor objects such as your face and it tracks it. " "This readsfrom video camera (0 by default, or the camera number the user enters " "Usage: " " ./camshiftdemo [camera number] "; cout << " Hot keys: " " ESC - quitthe program " " c - stop thetracking " " b - switchto/from backprojection view " " h -show/hide object histogram " " p - pausevideo " "To initializetracking, select the object with mouse "; } const char* keys = { "{1| | 0 |camera number}" }; int main(int argc, const char** argv) { help(); VideoCapture cap; //定义一个摄像头捕捉的类对象 Rect trackWindow; RotatedRect trackBox;//定义一个旋转的矩阵类对象 int hsize = 16; float hranges[] = { 0, 180 };//hranges在后面的计算直方图函数中要用到 const float* phranges = hranges; CommandLineParser parser(argc, argv, keys);//命令解析器函数 int camNum = parser.get<int>("0"); cap.open(camNum);//直接调用成员函数打开摄像头 if (!cap.isOpened()) { help(); cout << "***Could notinitialize capturing...*** "; cout << "Currentparameter's value: "; parser.printParams(); return -1; } namedWindow("Histogram", 0); namedWindow("CamShiftDemo",0); setMouseCallback("CamShiftDemo",onMouse, 0);//消息响应机制 createTrackbar("Vmin", "CamShiftDemo",&vmin, 256, 0);//createTrackbar函数的功能是在相应的窗体创建滑动条,滑动条Vmin,vmin表示滑动条的值,最大为256 createTrackbar("Vmax", "CamShiftDemo",&vmax, 256, 0);//最后一个參数为0代表没有调用滑动拖动的响应函数 createTrackbar("Smin", "CamShift Demo", &smin, 256,0);//vmin,vmax,smin初始值分别为10,256,30 Mat frame, hsv, hue, mask, hist, histimg = Mat::zeros(200, 320, CV_8UC3), backproj; bool paused = false; for (;;) { if (!paused)//没有暂停 { cap >> frame;//从摄像头抓取一帧图像并输出到frame中 if (frame.empty()) break; } frame.copyTo(image); if (!paused)//没有按暂停键 { cvtColor(image, hsv, CV_BGR2HSV);//将rgb摄像头帧转化成hsv空间的 if (trackObject)//trackObject初始化为0,或者按完键盘的'c'键后也为0,当鼠标单击松开后为-1 { int _vmin = vmin, _vmax= vmax; //inRange函数的功能是检查输入数组每个元素大小是否在2个给定数值之间。能够有多通道,mask保存0通道的最小值,也就是h分量 //这里利用了hsv的3个通道,比較h,0~180,s,smin~256,v,min(vmin,vmax),max(vmin,vmax)。假设3个通道都在相应的范围内,则 //mask相应的那个点的值全为1(0xff),否则为0(0x00). inRange(hsv, Scalar(0, smin, MIN(_vmin, _vmax)), Scalar(180, 256, MAX(_vmin, _vmax)),mask); int ch[] = { 0, 0 }; hue.create(hsv.size(),hsv.depth());//hue初始化为与hsv大小深度一样的矩阵,色调的度量是用角度表示的,红绿蓝之间相差120度,反色相差180度 mixChannels(&hsv, 1,&hue, 1, ch, 1);//将hsv第一个通道(也就是色调)的数拷贝到hue中,0索引数组 if (trackObject <0)//鼠标选择区域松开后,该函数内部又将其赋值1 { //此处的构造函数roi用的是Mat hue的矩阵头。且roi的数据指针指向hue,即共用同样的数据,select为其感兴趣的区域 Mat roi(hue,selection), maskroi(mask, selection);//mask保存的hsv的最小值 //calcHist()函数第一个參数为输入矩阵序列,第2个參数表示输入的矩阵数目。第3个參数表示将被计算直方图维数通道的列表,第4个參数表示可选的掩码函数 //第5个參数表示输出直方图,第6个參数表示直方图的维数,第7个參数为每一维直方图数组的大小。第8个參数为每一维直方图bin的边界 calcHist(&roi, 1, 0,maskroi, hist, 1, &hsize, &phranges);//将roi的0通道计算直方图并通过mask放入hist中。hsize为每一维直方图的大小 normalize(hist, hist, 0,255, CV_MINMAX);//将hist矩阵进行数组范围归一化,都归一化到0~255 trackWindow = selection; trackObject = 1;//仅仅要鼠标选完区域松开后。且没有按键盘清0键'c',则trackObject一直保持为1。因此该if函数仅仅能运行一次,除非又一次选择跟踪区域 histimg = Scalar::all(0);//与按下'c'键是一样的,这里的all(0)表示的是标量所有清0 int binW = histimg.cols/ hsize; //histing是一个200*300的矩阵。hsize应该是每个bin的宽度。也就是histing矩阵能分出几个bin出来 Mat buf(1, hsize, CV_8UC3);//定义一个缓冲单bin矩阵 for (int i = 0; i <hsize; i++)//saturate_case函数为从一个初始类型准确变换到还有一个初始类型 buf.at<Vec3b>(i) = Vec3b(saturate_cast<uchar>(i*180. /hsize), 255, 255);//Vec3b为3个char值的向量 cvtColor(buf, buf, CV_HSV2BGR);//将hsv又转换成bgr for (int i = 0; i <hsize; i++) { int val =saturate_cast<int>(hist.at<float>(i)*histimg.rows/ 255);//at函数为返回一个指定数组元素的參考值 rectangle(histimg, Point(i*binW,histimg.rows), //在一幅输入图像上画一个简单抽的矩形,指定左上角和右下角。并定义颜色,大小,线型等 Point((i + 1)*binW,histimg.rows - val), Scalar(buf.at<Vec3b>(i)), -1, 8); } } calcBackProject(&hue, 1, 0,hist, backproj, &phranges);//计算直方图的反向投影。计算hue图像0通道直方图hist的反向投影,并让入backproj中 backproj &= mask; //opencv2.0以后的版本号函数命名前没有cv两字了,而且假设函数名是由2个意思的单词片段组成的话。且前面那个片段不够成单词,则第一个字母要 //大写,比方Camshift。假设第一个字母是个单词,则小写。比方meanShift,可是第二个字母一定要大写 RotatedRect trackBox =CamShift(backproj, trackWindow, //trackWindow为鼠标选择的区域。TermCriteria为确定迭代终止的准则 TermCriteria(CV_TERMCRIT_EPS | CV_TERMCRIT_ITER, 10, 1));//CV_TERMCRIT_EPS是通过forest_accuracy,CV_TERMCRIT_ITER if (trackWindow.area()<= 1) //是通过max_num_of_trees_in_the_forest { int cols =backproj.cols, rows = backproj.rows, r = (MIN(cols, rows) + 5) /6; trackWindow = Rect(trackWindow.x - r,trackWindow.y - r, trackWindow.x + r,trackWindow.y + r) & Rect(0, 0, cols, rows);//Rect函数为矩阵的偏移和大小,即第一二个參数为矩阵的左上角点坐标。第三四个參数为矩阵的宽和高 } if (backprojMode) cvtColor(backproj, image, CV_GRAY2BGR);//因此投影模式下显示的也是rgb图? ellipse(image, trackBox, Scalar(0, 0, 255), 3, CV_AA);//跟踪的时候以椭圆为代表目标 } } //后面的代码是无论pause为真还是为假都要运行的 else if (trackObject <0)//同一时候也是在按了暂停字母以后 paused = false; if (selectObject&& selection.width > 0 && selection.height > 0) { Mat roi(image,selection); bitwise_not(roi, roi);//bitwise_not为将每个bit位取反 } imshow("CamShiftDemo",image); imshow("Histogram", histimg); char c = (char)waitKey(10); if (c == 27) //退出键 break; switch (c) { case 'b': //反向投影模型交替 backprojMode = !backprojMode; break; case 'c': //清零跟踪目标对象 trackObject = 0; histimg = Scalar::all(0); break; case 'h': //显示直方图交替 showHist = !showHist; if (!showHist) destroyWindow("Histogram"); else namedWindow("Histogram", 1); break; case 'p': //暂停跟踪交替 paused = !paused; break; default: ; } } cap.release(); return 0; }
实验结果:
以摄像头中我的脸为目标,当他移动时,可以跟踪到他。
能够看到我的脸的各色调密度图。