Вот проблема: у меня две камеры смотрят на один и тот же 3D-объект. У меня есть пиксельные координаты центра объекта на двух изображениях камеры. Я знаю расположение камеры и позирую в трехмерном мире. Матрицы обеих камер откалиброваны.
Имея всю эту информацию, как мне найти координаты местоположения объекта в трехмерном мире?
Проблемы: у меня нет информации о датчике (высота датчика в мм), которая помогает получить более точную оценку местоположения. Объекты крошечные и расположены далеко от позиций камеры, что делает оценку локализации ненадежной. Интуитивно понятно, что использование информации с нескольких камер (смотрящей на один и тот же объект) должно помочь, но в этом случае поблизости есть несколько экземпляров объекта. Так что это усугубляет проблему. Использование SfM также не работает, поскольку информация о функциях скудна для небольших областей пикселей.