⑴ 圖像視頻雪花噪點的檢測演算法實現,有大神有代碼的嗎
主要還是像素檢測。閾值指定。
1:對於一個像素獲取其周圍的像素,均值加權之後和現有的像素值進行比較,
2:計算百分比差異,也可以直接用色差。閾值指定可以通過define全局變數指定值,修改define達到修改閾值的效果。
這個閾值肯定是要你自己指定,視情況修改就好了。
或者統計出全像素的色差值和,算出平均之後取差異大的。
⑵ opencv中從視頻里抓取一幀並把前景目標扣取出來,這個怎麼實現
你說的前景提取,具體是什麼樣的呢,背景固定的好提取,背景不固定的難,最簡單的方法是用高斯混合模版,opencv里好像有這個函數gmm
⑶ opencv中如何將從視頻中抓取的幀釋放掉
Mat frame;
frame.release();
⑷ opencv實現的AVI視頻中運動物體識別與追蹤的程序
以前有OPENCV的官網,可以下載到源代碼的,我這邊貼一個基於vc2005的源代碼吧。
#include <stdio.h>
#include<iostream>
#include <cv.h>
#include <cxcore.h>
#include <highgui.h>
using namespace std;
int main( int argc, char** argv )
{
//聲明IplImage指針
IplImage* pFrame = NULL;
IplImage* pFrImg = NULL;
IplImage* pBkImg = NULL;
CvMat* pFrameMat = NULL;
CvMat* pFrMat = NULL;
CvMat* pBkMat = NULL;
CvCapture* pCapture = NULL;
int nFrmNum = 0;
//創建窗口
cvNamedWindow("background",1);
cvNamedWindow("video", 1);
cvNamedWindow("foreground",1);
//排列窗口
cvMoveWindow("background", 30, 500);
cvMoveWindow("video", 350, 0);
cvMoveWindow("foreground", 690, 500);
//打開視頻文件
if(argc == 2)
if( !(pCapture = cvCaptureFromFile(argv[1])))
{
fprintf(stderr, "文件打開錯誤", argv[1]);
return -2;
}
//逐幀讀取視頻
while(pFrame = cvQueryFrame( pCapture ))
{
nFrmNum++;
//如果是第一幀,則申請內存,並初始化
if(nFrmNum == 1)
{
pBkImg = cvCreateImage(cvSize(pFrame->width, pFrame->height), IPL_DEPTH_8U,1);
pFrImg = cvCreateImage(cvSize(pFrame->width, pFrame->height), IPL_DEPTH_8U,1);
pBkMat = cvCreateMat(pFrame->height, pFrame->width, CV_32FC1);
pFrMat = cvCreateMat(pFrame->height, pFrame->width, CV_32FC1);
pFrameMat = cvCreateMat(pFrame->height, pFrame->width, CV_32FC1);
//轉化成單通道圖
cvCvtColor(pFrame, pBkImg, CV_BGR2GRAY);
cvCvtColor(pFrame, pFrImg, CV_BGR2GRAY);
cvConvert(pFrImg, pFrameMat);
cvConvert(pFrImg, pFrMat);
cvConvert(pFrImg, pBkMat);
}
else
{
cvCvtColor(pFrame, pFrImg, CV_BGR2GRAY);
cvConvert(pFrImg, pFrameMat);
//平滑圖像(高斯濾波)
cvSmooth(pFrameMat, pFrameMat, CV_GAUSSIAN, 3, 0, 0);
//當前幀減去背景
cvAbsDiff(pFrameMat, pBkMat, pFrMat);
//前景圖二值化
cvThreshold(pFrMat, pFrImg, 60, 255.0, CV_THRESH_BINARY);
//形態學濾波(去噪音)
cvErode(pFrImg, pFrImg, 0, 1);
cvDilate(pFrImg, pFrImg, 0, 1);
//把圖像轉正
pBkImg->origin=1;
pFrImg->origin=1;
//對pFrImg上的已經識別出的運動物體,在pFrame上畫跟蹤框
int x,y;
for (y=pFrImg->height - 1;y>=250;y--)
{
uchar* ptr = (uchar*)(pFrImg->imageData+pFrImg->widthStep*y); //將imageData指針指向第y行頭部
for (x=0;x<pFrImg->width;x++)
{
if(ptr[x]!=0)//判斷地y行第x個元素是否有圖像,如果有圖像,則畫跟蹤框
{
CvPoint pt1_Rect;
CvPoint pt2_Rect;
pt1_Rect.x=x-30;
pt1_Rect.y=y;
pt2_Rect.x=x+30;
pt2_Rect.y=y-300;
int thickness=3;
int line_type=8;
CvScalar color=CV_RGB(255,0,0);
cvRectangle( pFrame, pt1_Rect, pt2_Rect,color ,thickness, line_type, 0 );
y=-1;
break;
}
}
}
//顯示圖像
cvShowImage("video", pFrame);
cvShowImage("background", pBkImg);
cvShowImage("foreground", pFrImg);
//如果有按鍵事件,則跳出循環
//為cvShowImage函數提供時間完成顯示
//等待時間可以根據CPU速度調整
if( cvWaitKey(27) >= 0 )
break;
}
}
//銷毀窗口
cvDestroyWindow("video");
cvDestroyWindow("background");
cvDestroyWindow("foreground");
//釋放圖像和矩陣
cvReleaseImage(&pFrImg);
cvReleaseImage(&pBkImg);
cvReleaseMat(&pFrameMat);
cvReleaseMat(&pFrMat);
cvReleaseMat(&pBkMat);
cvReleaseCapture(&pCapture);
return 0;
}
⑸ 為什麼OpenCV通過攝像頭讀取保存的視頻,播放的時候特別快,無論我怎麼改幀率也沒用
Opencv是一幀一幀讀取,處理完一幀就處理下一幀,中間是沒有時間間隔的。首先要
cvGetCaptureProperty(capture, CV_CAP_PROP_FPS ); //讀取視頻的幀率
讀取到幀率,再
int vfps = 1000 / fps; //計算每幀播放的時間
這樣,如果你sleep(vfps)秒,大概就可以按幀率播放,但還是有點偏差,如果你不是特別嚴格,就可以這樣用,如果要求特別嚴格的話...就要另外想辦法,思路就是這樣的。
⑹ opencv中目標跟蹤的演算法有哪些
是對MeanShift演算法的改進演算法,可以在跟蹤的過程中隨著目標大小的變化實時調整搜索窗口大小,對於視頻序列中的每一幀還是採用MeanShift來尋找最優迭代結果,至於如何實現自動調整窗口大小的,
⑺ opencv中如何使用中值濾波對視頻進行處理
cvsmooth(frame,frame,CV_MEDIAN)添加在cvshowimage之前就可以了,轉灰度圖用cvCvtColor
⑻ opencv怎麼判斷一個視頻是抖動的
使用string代替char,用cin輸入string時會自動分配足夠的存儲空間 char argv0[]={0};//這里只在棧上分配了一個位元組的空間,當用cin輸入時會破壞棧上其他位置的數據,導致錯誤
⑼ 誰能教我用opencv處理視頻
opencv比較復雜,主要是要用到圖像視頻處理的背景知識,你最好把自己到底想做啥說一下,比較好回答
⑽ OpenCV做視頻處理用到的幾個函數
cvCaptureFromFile(打開視頻文件), cvCvtColor, cvCaptureFromAVI(打開avi視頻), cvCaptureFromCAM(從攝像機中獲取幀)等