Восстановить 3D-координаты в системе координат камеры из 2D-пикселей с боковым условием

Я пытаюсь восстановить 3D-координаты из 2D-пиксельных координат на изображении с камеры, используя побочное условие (в MatLab). У меня есть внешние и внутренние параметры камеры.

Используя однородное преобразование, я могу преобразовать 3D-координаты из исходной мировой системы координат в мою систему координат камеры. Итак, у меня есть внешние параметры в моей матрице преобразования R_world_to_Camera:

R_world_to_Camera = [ r_11, r_12, r_13, t1;
r_21, r_22, r_23, t2;
r_31, r_32, r_33, t3;
0, 0, 0, 1];

Для внутренних параметров я использовал Caltech "Camera Calibration Toolbox для MatLab" и получил следующие параметры:

Calibration results (with uncertainties): 

 Focal Length:          fc = [ 1017.21523   1012.54901 ] ± [ NaN   NaN ] 
 Principal point:       cc = [ 319.50000   239.50000 ] ± [ NaN   NaN ] 
 Skew:             alpha_c = [ 0.00000 ] ± [ NaN  ]   => angle of pixel axes = 90.00000 ± NaN degrees 
 Distortion:            kc = [ 0.00000   0.00000   0.00000   0.00000  0.00000 ] ± [ NaN   NaN   NaN   NaN    NaN ] 
 Pixel error:          err = [ 0.11596   0.14469 ] 

 Note: The numerical errors are approximately three times the standard deviations (for reference).

Итак, я получаю матрицу калибровки камеры K (3x3).

K = [1.017215234570303e+03, 0, 3.195000000000000e+02; 
0, 1.012549014668498e+03,2.395000000000000e+02; 
0, 0, 1.0000];

и используя это, я могу вычислить 3D -> 2D - Projection-Matrix P (3x4) с помощью:

P = K * [eye(3), zeros(3,1)];

При преобразовании точки в мировые координаты [X, Y, Z] _World я сначала преобразовываю ее в координаты камеры, а затем проецирую в 2D:

% Transformation
P_world = [X; Y; Z; 1]; % homogenous coordinates in World coordinate System
P_camera = R_world_to_Camera * [X; Y; Z; 1];

% Projection
P_pixels = P * camera;
P_pixels = P_pixels / P_pixels(3); % normalize coordinates

Итак, мой вопрос теперь в том, как отменить эти шаги? В качестве побочного условия я хочу установить известную Z-координату (ноль в мировых координатах). Я попробовал предложенное решение здесь, в Stackoverflow, но почему-то я получаю неправильные координаты. Любая идея? Любая помощь очень ценится !!


person EliteTUM    schedule 04.07.2012    source источник


Ответы (2)


Вы не можете полностью изменить этот шаг: информация о глубине и масштабе теряется при проецировании 3D-точек на 2D-изображение. Однако, если, как вы указываете, все ваши 3D-точки находятся на плоскости Z = 0, то получить их обратно из их проекций тривиально: вычислите обратное Ki = K ^ -1 матрицы камеры и примените его к точкам изображения. в однородных координатах.

P_camera = Ki * [u, v, 1] '

где [u, v] - координаты изображения, а апостроф означает транспонирование. 3D-точки, которые вы хотите, лежат на лучах от центра камеры до камеры P_camera. Выразите оба значения в мировых координатах:

P_world = [R | t] _camera_to_world * [P_camera, 1] '

C_world = [R | t] _camera_to_world * [0, 0, 0, 1] '

где [R | t] - преобразование координат 4x4. Теперь набор точек на каждом луче выражается как

P = C_world + лямбда * P_world;

где лямбда - скаляр (координата вдоль луча). Теперь вы можете наложить условие, что P (3) = 0, чтобы найти значение лямбды, которое помещает ваши точки на плоскость Z = 0.

person Francesco Callari    schedule 05.07.2012
comment
Если используется Z-буфер, то каждый отображаемый пиксель имеет 2 экранные координаты и 1 мировую координату (глубину; в Z-буфере), что достаточно для восстановления оставшихся 2 мировых координат. - person Alexey Frunze; 05.07.2012
comment
А как вообще заполняется Z-буфер, если у него нет 3d координат? :-) - person Francesco Callari; 06.07.2012
comment
Z-буфер обычно заполняется при растрировании трехмерных полигонов на экране. - person Alexey Frunze; 06.07.2012
comment
Спасибо, Франко! Это больше или меньше подход, который я нашел в магистерской диссертации. В магистерской диссертации, которую я нашел, прямо включено условие Z = 0. Я добавил тестовый код, который написал ниже; может это поможет :) - person EliteTUM; 06.07.2012

благодаря красному вину и внимательному чтению я нашел ответ в (немецкой) магистерской диссертации :) Мой тестовый код выглядит следующим образом:

% Clean-Up First 
clear all; 
close all; 
clc; 

% Caamera-Calibration-Matrix
 K = [1.017215234570303e+03, 0, 3.195000000000000e+02, 0; 
0, 1.012549014668498e+03,2.395000000000000e+02, 0; 
0, 0, 1.0000, 0; 
0, 0, 0, 0]; 

% Transforma Matrix from 3D-World-Coordinate System to 3D-Camera-Coordinate System (Origin on CCD-Chip) 
% 
% The Camera is oriented "looking" into positive X-Direction of the World-Coordinate-System. On the picture,
% positive Y-Direction will be to the left, positive Z-Direction to the top. (right hand coordinate system!)
 R_World_to_Cam = [-0.0113242625465167   -0.999822053685344   0.0151163536128891   141.173585444427; 
0.00842007509644635   -0.0152123858102325   -0.999848810645587   1611.96528372161; 
0.999900032304804   -0.0111955728474261   0.00859117128537919   847.090629282911; 
0   0   0   1]; 

% Projection- and Transforma Matrix P 
 P = K * R_World_to_Cam; 

% arbitrary Points X_World in World-Coordinate-System [mm] (homogenous Coordinates) 
% forming a square of size 10m x 4m 
 X_World_1 = [20000; 2000; 0; 1]; 
 X_World_2 = [20000; -2000; 0; 1]; 
 X_World_3 = [10000; 2000; 0; 1]; 
 X_World_4 = [10000; -2000; 0; 1]; 

% Transform and Project from 3D-World -> 2D-Picture 
 X_Pic_1 = P * X_World_1; 
 X_Pic_2 = P * X_World_2; 
 X_Pic_3 = P * X_World_3; 
 X_Pic_4 = P * X_World_4; 

% normalize homogenous Coordinates (3rd Element has to be 1!) 
 X_Pic_1 = X_Pic_1 / X_Pic_1(3); 
 X_Pic_2 = X_Pic_2 / X_Pic_2(3); 
 X_Pic_3 = X_Pic_3 / X_Pic_3(3); 
 X_Pic_4 = X_Pic_4 / X_Pic_4(3); 

% Now for reverse procedure take arbitrary points in Camera-Picture... 
% (for simplicity, take points from above and "go" 30px to the right and 40px down) 
 X_Pic_backtransform_1 = X_Pic_1(1:3) + [30; 40; 0]; 
 X_Pic_backtransform_2 = X_Pic_2(1:3) + [30; 40; 0]; 
 X_Pic_backtransform_3 = X_Pic_3(1:3) + [30; 40; 0]; 
 X_Pic_backtransform_4 = X_Pic_4(1:3) + [30; 40; 0]; 

% ... and transform back following the formula from the Master Thesis (in German):
% Ilker Savas, "Entwicklung eines Systems zur visuellen Positionsbestimmung von Interaktionspartnern" 
 M_Mat = P(1:3,1:3);                 % Matrix M is the "top-front" 3x3 part 
 p_4 = P(1:3,4);                     % Vector p_4 is the "top-rear" 1x3 part 
 C_tilde = - inv( M_Mat ) * p_4;     % calculate C_tilde 

% Invert Projection with Side-Condition ( Z = 0 ) and Transform back to 
% World-Coordinate-System 
 X_Tilde_1 = inv( M_Mat ) * X_Pic_backtransform_1; 
 X_Tilde_2 = inv( M_Mat ) * X_Pic_backtransform_2; 
 X_Tilde_3 = inv( M_Mat ) * X_Pic_backtransform_3; 
 X_Tilde_4 = inv( M_Mat ) * X_Pic_backtransform_4; 

 mue_N_1 = -C_tilde(3) / X_Tilde_1(3); 
 mue_N_2 = -C_tilde(3) / X_Tilde_2(3); 
 mue_N_3 = -C_tilde(3) / X_Tilde_3(3); 
 mue_N_4 = -C_tilde(3) / X_Tilde_4(3); 

% Do the inversion of above steps... 
 X_World_backtransform_1 = mue_N_1 * inv( M_Mat ) * X_Pic_backtransform_1 + C_tilde; 
 X_World_backtransform_2 = mue_N_2 * inv( M_Mat ) * X_Pic_backtransform_2 + C_tilde; 
 X_World_backtransform_3 = mue_N_3 * inv( M_Mat ) * X_Pic_backtransform_3 + C_tilde; 
 X_World_backtransform_4 = mue_N_4 * inv( M_Mat ) * X_Pic_backtransform_4 + C_tilde; 


% Plot everything
figure(1); 
% First Bird Perspective of World-Coordinate System... 
subplot(1,2,1); 
xlabel('Y-World'); 
ylabel('X-World'); 
grid on; 
axis([-3000 3000 0 22000]); 
hold on; 


plot( -X_World_1(2), X_World_1(1), 'bo' ); 
plot( -X_World_2(2), X_World_2(1), 'bo' ); 
plot( -X_World_3(2), X_World_3(1), 'bo' ); 
plot( -X_World_4(2), X_World_4(1), 'bo' ); 
line([-X_World_1(2) -X_World_2(2) -X_World_4(2) -X_World_3(2) -X_World_1(2)], [X_World_1(1) X_World_2(1) X_World_4(1) X_World_3(1) X_World_1(1)], 'Color', 'blue' ); 

plot( -X_World_backtransform_1(2), X_World_backtransform_1(1), 'ro' ); 
plot( -X_World_backtransform_2(2), X_World_backtransform_2(1), 'ro' ); 
plot( -X_World_backtransform_3(2), X_World_backtransform_3(1), 'ro' ); 
plot( -X_World_backtransform_4(2), X_World_backtransform_4(1), 'ro' ); 
line([-X_World_backtransform_1(2) -X_World_backtransform_2(2) -X_World_backtransform_4(2) -X_World_backtransform_3(2) -X_World_backtransform_1(2)], [X_World_backtransform_1(1) X_World_backtransform_2(1) X_World_backtransform_4(1) X_World_backtransform_3(1) X_World_backtransform_1(1)], 'Color', 'red' ); 


hold off; 

% ...then the camera picture (perspective!)
subplot(1,2,2); 
hold on; 
image(ones(480,640).*255); 
colormap(gray(256)); 
axis([0 640 -480 0]); 
line([X_Pic_1(1) X_Pic_2(1) X_Pic_4(1) X_Pic_3(1) X_Pic_1(1)], -1*[X_Pic_1(2) X_Pic_2(2) X_Pic_4(2) X_Pic_3(2) X_Pic_1(2)], 'Color', 'blue' ); 
line([X_Pic_backtransform_1(1) X_Pic_backtransform_2(1) X_Pic_backtransform_4(1) X_Pic_backtransform_3(1) X_Pic_backtransform_1(1)], -1*[X_Pic_backtransform_1(2) X_Pic_backtransform_2(2) X_Pic_backtransform_4(2) X_Pic_backtransform_3(2) X_Pic_backtransform_1(2)], 'Color', 'red' ); 
hold off;
person EliteTUM    schedule 06.07.2012
comment
Приятно, но вам следует (настоятельно советую) указать имя и автора магистерской диссертации. - person Rui Marques; 15.02.2013
comment
это прямо в комментариях в середине кода. Илькер Савас, Entwicklung eines Systems zur visuellen Positionsbestimmung von Interaktionspartnern - person Thesane; 10.11.2015