Проблемы с примером K-NN в C ++ (OpenCV)

В документации OpenCV я нашел следующий пример использования k-NN. Теперь моя задача — преобразовать следующий код в Java и внести в него некоторые изменения, потому что мои данные не являются изображениями.
У меня есть некоторые трудности, чтобы понять, что происходит в примере.

Сначала посмотрим на код:

#include "ml.h"#include "highgui.h"
int main( int argc, char** argv )
{
const int K = 10;
int i, j, k, accuracy;
float response;
int train_sample_count = 100;
CvRNG rng_state = cvRNG(-1);
CvMat* trainData = cvCreateMat( train_sample_count, 2, CV_32FC1 );
CvMat* trainClasses = cvCreateMat( train_sample_count, 1, CV_32FC1 );
IplImage* img = cvCreateImage( cvSize( 500, 500 ), 8, 3 );
float _sample[2];
CvMat sample = cvMat( 1, 2, CV_32FC1, _sample );
cvZero( img );

CvMat trainData1, trainData2, trainClasses1, trainClasses2;

// form the training samples
cvGetRows( trainData, &trainData1, 0, train_sample_count/2 );
cvRandArr( &rng_state, &trainData1, CV_RAND_NORMAL, cvScalar(200,200), cvScalar(50,50) );

cvGetRows( trainData, &trainData2, train_sample_count/2, train_sample_count );
cvRandArr( &rng_state, &trainData2, CV_RAND_NORMAL, cvScalar(300,300), cvScalar(50,50) );

cvGetRows( trainClasses, &trainClasses1, 0, train_sample_count/2 );
cvSet( &trainClasses1, cvScalar(1) );

cvGetRows( trainClasses, &trainClasses2, train_sample_count/2, train_sample_count );
cvSet( &trainClasses2, cvScalar(2) );

// learn classifier
CvKNearest knn( trainData, trainClasses, 0, false, K );
CvMat* nearests = cvCreateMat( 1, K, CV_32FC1);

for( i = 0; i < img->height; i++ )
{
for( j = 0; j < img->width; j++ )
{
sample.data.fl[0] = (float)j;
sample.data.fl[1] = (float)i;

// estimate the response and get the neighbors' labels
response = knn.find_nearest(&sample,K,0,0,nearests,0);

// compute the number of neighbors representing the majority
for( k = 0, accuracy = 0; k < K; k++ )
{
if( nearests->data.fl[k] == response)
accuracy++;
}
// highlight the pixel depending on the accuracy (or confidence)
cvSet2D( img, i, j, response == 1 ?
(accuracy > 5 ? CV_RGB(180,0,0) : CV_RGB(180,120,0)) :
(accuracy > 5 ? CV_RGB(0,180,0) : CV_RGB(120,120,0)) );
}
}

// display the original training samples
for( i = 0; i < train_sample_count/2; i++ )
{
CvPoint pt;
pt.x = cvRound(trainData1.data.fl[i*2]);
pt.y = cvRound(trainData1.data.fl[i*2+1]);
cvCircle( img, pt, 2, CV_RGB(255,0,0), CV_FILLED );
pt.x = cvRound(trainData2.data.fl[i*2]);
pt.y = cvRound(trainData2.data.fl[i*2+1]);
cvCircle( img, pt, 2, CV_RGB(0,255,0), CV_FILLED );
}

cvNamedWindow( "classifier result", 1 );
cvShowImage( "classifier result", img );
cvWaitKey(0);

cvReleaseMat( &trainClasses );
cvReleaseMat( &trainData );
return 0;
}

Ссылка на источник

Теперь вопросы.

1. Что такое cvRNGтип. Не удалось найти его в Java-версии OpenCV

2. CvMat sample = cvMat( 1, 2, CV_32FC1, _sample ); — нужен конструктор из четырех полей, который недоступен в Java.

3. Зачем мне нужно формировать обучающие образцы? И как мне это сделать?
Вот упоминается, что «поддерживается только макет данных CV_ROW_SAMPLE». Что это значит?

Любые дополнительные рабочие примеры приветствуются помимо ответов. =)

3

Решение

Пример начинается с генерации случайных обучающих данных. Это строит Nx2 матрица обучающих образцов (N=100 2D точки), вместе с соответствующими метками классов (Nx1 матрица). Таким образом, образцы имеют «расположение строк», каждая строка представляет собой один образец.

Сгенерированные данные разделены на две части; в первом тайме (N/2)x2 выборки генерируются из нормального распределения со средним = 200 и дисперсией = 50 (обе координаты X и Y), принадлежащих к первому классу class=1, Точно так же вторая половина генерируется из X~N(300,50) и помечены как имеющие class=2,

Таким образом, вы можете представить, что данные выглядят как две капли точек в двумерном пространстве, диаметрально противоположных.

Далее мы создаем K-ближайший сосед классификатор (K=10 в примере), и мы кормим его нашим тренировочным набором.

Затем код зацикливается на сетке точек в диапазоне 500×500 (то есть мы проходим 2D-точки [0,0], [0,1], ..., [1,0], [1,1], ... [499,499]). Для каждой точки мы используем классификатор, чтобы найти K-ближайших соседей (на основе евклидова расстояния) и соответствующие им метки классов, а также прогнозировать метку точки сетки (на основе большинства голосов от ближайших соседей). Он вычисляет меру «доверия» (подсчитывая, сколько из K=10 ближайшие соседи имеют тот же класс, что и прогнозируемый).

Мы сохраняем прогнозы в изображении того же размера, что и сетка (500×500), с цветовой кодировкой для представления класса (1 или же 2), с интенсивностью цвета, представляющей достоверность прогноза.

Наконец, он наносит исходные образцы данных поверх изображения с точками, закрашенными их истинной меткой класса, и показывает полученное изображение.

Теперь я не запускал точно такой же код, но думаю, что он даст что-то вроде следующего:

классификация

Я написал это в . Вот мой код на случай, если вы заинтересованы (я использую mexopencv, инструментарий упаковщиков MATLAB для OpenCV):

% random training set generated from two normal distributions
N = 100;  % number of training samples
trainData = [randn(N/2,2)*50+200; randn(N/2,2)*50+300];
trainClass = int32([ones(N/2,1)*1; ones(N/2,1)*2]);

% kNN classifier
K = 10;
knn = cv.KNearest();
knn.train(trainData, trainClass);

% build grid of 2D points, predict and find K nearest neigbords
sz = [500 500];
[X,Y] = ndgrid(1:sz(1), 1:sz(2));
[pred,IDX] = knn.findNearest([X(:) Y(:)], K);

% compute prediction confidence
conf = sum(bsxfun(@eq, IDX, pred),2) ./ K;

% evaluate classifier on training set
acc = nnz(knn.predict(trainData) == trainClass) * 100 / N;

% plot (color-coded by class, transparency indicates confidence)
clr1 = lines(2);
clr2 = brighten(clr1, -0.6);
imagesc(ind2rgb(reshape(pred,sz), clr1), 'AlphaData',reshape(conf,sz))
hold on
scatter(trainData(:,1), trainData(:,2), [], clr2(trainClass,:), 'filled')
hold off; xlabel X; ylabel Y;
title(sprintf('kNN Classification Accuracy = %.1f%%',acc))
3

Другие решения