авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:     | 1 | 2 ||

«Федеральное государственное автономное образовательное учреждение высшего профессионального образования «Южный федеральный университет» ...»

-- [ Страница 3 ] --

Таблица 4.7. Параметры расположения камер в модельном эксперименте №, м, м, м 30 0 1 1,2 0,5 2, 90 0 2 0 1,2 0,0 2, 150 0 1,0 0, 3 0 1, 150 0 0 1,0 0, 4 1, 90 0 0 1, 5 0,0 2, 30 0 0 1, 6 0,5 2, На рисунке 4.2 представлены результаты формирования панорамного изображения описанной синтезированной модели системы кругового обзо ра при различных дальностях «сшивки» для сферической поверхности и для полусферической поверхности. Корректность преобразований можно оценить по объекту в центре: на расстояниях отличных от 50 метров, объ ект оказывается не совмещен на изображениях. Можно отметить, что на работоспособность разработанного алгоритма формирования панорамного изображения не оказывает влияние наличие «слепых» зон, т. е. областей не просматриваемых камерами. В таких областях панорамное изображение остается незаполненным.

На рисунке 4.3 представлены изображения центральной части панора мы при различных расстояниях до объекта (25 и 50 метров) и различных «моделях мира»: сферическая поверхность радиусами 10, 25, 50, 100 и метров, а также полусфера радиусом 1000 метров. Приведенные изобра жения также подтверждают корректность выполняемых преобразований:

объект на расстоянии 25 метров совместился при дальности «сшивки» метров (левый столбец, второй ряд);

то же самое можно сказать об объекте на расстоянии 50 метров (правый столбец, третий ряд). Интересный резуль Рисунок 4.2. Панорамное изображение, построенное для синтезированной модели видеосистемы кругового обзора при различных геометрических «моделях мира». Расстояние до темного объекта в центре панорамы 50 метров. Сверху вниз: «модель мира» в виде сферической поверхности с радиусом 10, 50 и 10000 метров, и в виде полусферы с радиусом 10000 метров.

расстояние до объекта 25 м расстояние до объекта 50 м Рисунок 4.3. Центральная часть синтезированного панорамного изображения. Слева:

расстояние до объекта 25 метров, справа: расстояние 50 метров. Сверху вниз: «модель мира» в виде сферической поверхности с радиусом 10, 25, 50, 100 и 10000 метров, и в виде полусферы с радиусом 10000 метров.

тат позволяет получить полусферическая модель: нижняя часть объекта совмещается при любых расстояниях до объекта. К сожалению, при этом возникают искажения формы объекта (нижний ряд).

Проведенные натурные эксперименты показывают работоспособность представленных моделей и алгоритмов. На рисунке 4.4 представлены несколь ко панорамных изображений при фиксированной дальности сшивки метров. В зависимости от вида сцены такая дальность может оказаться неподходящей: для открытых пространств предпочтительна сшивка на уда ленном расстоянии, при езде в городе или плотном транспортном потоке могут потребоваться более близкие расстояния «сшивки». Использование полусферической поверхности сшивки (рисунок 4.5) позволяет корректно отобразить на панораме проезжую часть и удаленные объекты. Однако, те объекты, которые выступают над плоскостью имеют искаженную форму.

Таким образом, разработанная модель и алгоритмы построения па норамного изображения корректно справляются со своей задачей, но их нельзя называть универсальными: необходимо задавать расстояние и форму поверхности, на которой производится «сшивка». При ошибке определения расстояний до объектов сцены, их изображения на панораме не совмеща ются. Решить эту проблему можно различными способами: отслеживать двоящиеся объекты на панораме и убирать их искусственно, или применять системы определения дальности до объектов с помощью активных (лидаров) или пассивных (стереовизионных) системы. Использование подобных си стем, особенно систем стереозрения, которые можно объединить с системой кругового обзора, является перспективным направлением, но несколько выходит за рамки представляемой работы.

4.4 Построение и отображение траектории движения Построение траектории движения Имея средний угол поворота управляемых колес, колесную базу автомобиля и максимальную габаритную ширину автомобиля, рас считываем средний радиус поворота, радиусы поворота левого лев и Рисунок 4.4. Панорамные изображения, полученные в результате натурных экспериментов, дальность «сшивки» 30 метров.

Рисунок 4.5. Панорамные изображения, полученные в результате натурных экспериментов, «сшивка» на полусферической поверхности.

пр правого бортов по формулам:

= / tan лев = + / пр = / При этом положительный угол, которому соответствует положитель ный радиус поворота, означает поворот направо, а отрицательный угол и соответственно отрицательный радиус поворота — поворот налево. Если = 0, то радиус поворота равен =. При расчетах далее полагаем, что все координаты заданы в основной системе координат.

Пусть — максимальное расстояние отображения траектории, а — шаг, с которым вычисляется траектория для среднего радиуса поворота. Ес ли угол = 0, тогда проехав расстояние автомобиль повернется на угол = /. Таким образом для левого борта координаты точек траекто рии (лев, лев ) для = 0, 1, 2,..., min(/, |2/|) рассчитываются следующим образом:

= 0 лев cos( · ), лев = 0 + лев sin( · ), лев где (0, 0 ) = (, 0) — точка, вокруг которой поворачивает автомобиль (это справедливо для случая описанного выше, когда центр координат основной системы координат совпадает с серединой задней оси автомобиля).

Аналогично определяются точки траектории для правого борта (пр, пр ).

Если же угол поворота = 0, координаты точек траектории левого и правого бортов рассчитываются тривиально:

лев = /2, пр = /2, лев = пр = 0 +.

Отметки дальности представляется целесообразным отображать выхо дящими из точки (0, 0 ). В этом случае для дальности линия состоит из точек, определяемых выражением = 0 cos( /), = 0 + sin( /), где = min(лев, пр ) + · ;

= /( 1);

= 0, 1,..., 1;

— количество точек в лини дальности. При угле поворота = 0 точки, составляющие -ю линию дальности, определяются следующим образом:

= /2 +, =, Если траектория отображается на изображении с исправленной дисторсией или «виде сверху», проекция линии дальности на изображение соответствует прямой и достаточно = 2 точек.

Отображение траектории на исходном изображении (без исправления дисторсии) После получения точек траектории и линий дальности необходимо найти проекции этих точек на изображение применяя последовательно выражения (2.9)–(2.12), представленных на с. 52. Затем по найденным проекциям на изображении строится ломанная линия, соединяющая точки каждой траектории между собой.

Отображение траектории на изображении с исправленной дисторсией Необходимо предварительно устранить дисторсию исходного изображе ния. Для этого входное изображение следует подвергнуть геометрическом преобразованию. Геометрическое преобразование выполняется с помощью функции обратного отображения (, ) = (, ), для которой справедли во испр (, ) = ( (, )), где — исходное изображение, испр — изображение с исправленными гео метрическими искажениями. Целесообразно однажды рассчитать значения функции (, ) и сохранить их в виде таблицы или аппроксимировать с помощью многочленов (раздел 4.5).

Обозначим через размер выходного изображения, — фокусное расстояние выходного изображения, выраженное в пикселях. Так как на выходном изображении отсутствует дисторсия углы обзора по вертикали гор и горизонтали верт определяются этими тремя параметрами:

гор = 2 arctan, верт = 2 arctan.

Таким образом, параметр определяет углы обзора камеры. На прак тике для изображения с исправленной дисторсией можно подобрать таким образом, чтобы выходное изображение содержало максимум информации исходного и в то же время не содержало областей, в которых функция (, ) выйдет за границы исходного изображения. Точку пересечения оптической оси с плоскостью выходного изображения расположим в центре выходного изображения:

( ) 1 (0, 0 ) =,.

2 Для получения значений функции (, ) для = 0, 1,..., 1 и = = 0, 1,..., 1 необходимо выполнить следующую последовательность преобразований:

1. Перейти к координатам, соответствующим координатам на плоско сти, находящейся на единичном расстоянии от центра камеры:

= ( 0 )/, = ( 0 )/.

2. Перейти к координатам входного изображения последовательно применив преобразования (2.11) и (2.12).

При проецировании точек траектории движения на изображение с исправленной дисторсией необходимо выполнять следующую последова тельность действий:

1. Перейти с помощью (2.9) к системе координат камеры.

2. Найти с помощью (2.10) проекции точек (, ) на единичную плос кость.

3. Получить искомые проекции точек (, ) на исправленном изобра жении:

= + 0, = + 0.

Отображение траектории на «виде сверху»

Построение «вида сверху» и отображение на нем траектории произво дится аналогично построению траектории на изображении с исправленной дисторсией: строится таблица значений функции (, ), входное изоб ражение преобразуется согласно таблице, после чего на преобразованном изображении строится траектория движения.

Необходимо задать следующие параметры: — число пикселей в од ном метре, (0, 0 ) — координаты центра основной системы координат на изображении, и — ширина и высота изображения «вида сверху». Таким образом, на «виде сверху» отображается область шириной / метров и высотой / метров. Функция (, ) для «вида сверху» вычисляется следующим образом:

1. Переход от пиксельных координат «вида сверху» (, ) к простран ственным координатам основной системы координат (,, ):

= ( 0 )/, = ( 0 )/, = 0.

2. Переход к координатам входного изображения с помощью последо вательности выражений (2.9)–(2.12).

Для построения траектории на «виде сверху» необходимо от координат точек траектории в основной системе координат перейти к пиксельным координатам с помощью выражений:

= + 0, = 0.

а б в Рисунок 4.6. Отображение траектории на исходном изображении (а), изображении с исправленными геометрическими искажениями (б) и изображении «вида сверху» (в).

Радиус поворота равен бесконечности (верхний ряд), 40 единицам (средний ряд) и единицам (нижний ряд). Одна единица расстоянию соответствует шагу доски. Отметки дальности расположены с шагом 2 единицы.

На рисунке 4.6 представлены результаты описанных способов построе ния траектории на изображении. Использование калибровочной шахматной доски помогает определить параметры расположения камеры и отследить корректность выполняемых преобразований: отметки линий дальности в верхнем ряду практически сливаются с границами тестового изображения, а траектории на изображении «вида сверху» соответствует дугам окружности.

4.5 Аппроксимация таблиц геометрических преобразований с помощью полиномов Вычисление значений функции обратного отображения (2.38) для каж дой камеры требует значительных вычислительных ресурсов. Для того чтобы иметь возможность обработки видео в режиме реального времени можно предварительно рассчитать значения функции обратного отобра жения для всех возможных точек преобразованного изображения: для выходного изображения размера требуется две таблицы (, ) и (, ), где = 0, 1,..., 1;

= 0, 1,..., 1. Такой подход требует постоянного хранения в памяти таблицы заранее рассчитанных значений функции (2.38) и, следовательно, регулярного обращения к этой области памяти, что может представлять трудности в случае реализации алгоритма исправления геометрических искажений на ПЛИС. Предлагается следующее решение этой проблемы [2].

Рассмотрим многочлен степени вида () = 0 + 1 + 1 2 +... + 1 1 +. (4.1) Вычисление значений такого многочлена эффективно реализуется с по мощью схемы Горнера [93, с. 284], при этом многочлен записывается в следующей форме:

() = 0 + (1 + (2 +... (1 + )...)).

Несмотря на простоту, такой подход позволяет вычислить значение мно гочлена за операций сложения и операций умножения. Другой способ вычисления значений полинома, позволяющий обойтись исключительно опе рациями сложения, что во многих случаях позволяет повысить быстродей ствие, известен как метод конечных разностей [94, с. 668]. Для многочлена (4.1) рассмотрим следующие разности:

0 () = (), (4.2) +1 () = ( + 1) (), где = 0, 1,..., 1. Из (4.2) напрямую следует, что ( + 1) = 0 ( + 1), (4.3) ( + 1) = () + +1 ().

Можно доказать, что конечная разность -го порядка () будет одинаковой при любых. Полученные итерационные соотношения (4.3) позволяют вычислить значения многочлена в точке + 1 при известных значениях многочлена и разностей, = 0, 1,..., в точке. Раскрывая выражения (4.2), получаем следующие начальные значения разностей для многочлена степени = 5 при = 0:

0 (0) = 0, 1 (0) = 1 + 2 + 3 + 4 + 5, 2 (0) = 22 + 63 + 144 + 305, (4.4) 3 (0) = 63 + 364 + 1505, 4 (0) = 244 + 2405, 5 (0) = 1205.

Таким образом, алгоритм вычисления значений многочлена с помощью метода конечных разностей следующий:

1. Получить начальные значения разностей в точке = 0 по формулам (4.4). Значение многочлена в этой точке (0) = 0.

2. Для получения каждого следующего значения многочлена необхо димо согласно формулами (4.3) итерационно обновить значения, а затем запомнить 0 как значение многочлена.

Первый шаг алгоритма можно опустить, если в качестве входных данных использовать не коэффициенты полинома, а предварительно рассчитанные разности. Таким образом, для вычисления одного значения многочлена требуется всего 1 операций сложения.

Рассмотрим теперь задачу аппроксимации некоторого набора точек (, ), = 0, 1,..., с помощью многочлена заданной степени. Подстав ляя и в (4.1), получаем следующую систему уравнений:

1 · · · 0 1 0 1 · · · 11.1 1... =.. (4.5).

......

......

1 · · · 1 0 Первый множитель системы уравнений (4.5), называемый матрицей Вандермонда [68, с. 120], обозначим как X. Векторами a = (0, 1,..., ) и y = (0, 1,..., ) обозначим соответственно коэффициенты полинома и аппроксимируемые значения. Таким образом, система уравнений (4.5) может быть представлена в краткой записи:

Xa = y.

При система (4.5) является переопределенной, и не имеет точ ного решения. В том случае, если требуется аппроксимировать данные, не содержащие некорректных значений (выбросов), разумно применить метод наименьших квадратов. Обозначим разность исходных и аппрокси мированных значений, так же называемую остатками, как e = y Xa.

При решении (4.5) по методу наименьших квадратов находятся такие коэф фициенты a многочлена (4.1), что сумма квадратов разностей остатков e является минимальной:

( ( ) )2.

a = arg min a Сумма квадратов остатков также может быть записана в следующем виде:

( ( ) )2 = eT e = (y Xa)T (y Xa).

Дифференцируя по a и приравнивая производную к нулю (в этом случае ошибка eT e будет минимальной), получаем:

(XT X)a = XT y, откуда находим a = (XT X)1 XT y = X+ y, здесь X+ = (XT X)1 XT является псевдообратной матрицей [95, с. 187], которая может быть найдена с помощью сингулярного разложения [96, с. 260].

Выше была рассмотрена аппроксимация многочленами одномерных функций, а таблицы функции обратного отображения (, ) и (, ) двумерны. Для перехода к двумерному случаю предлагается следующий подход. Каждая -я строка таблицы (пусть для определенности это бу дет таблица ) аппроксимируется многочленом степени построчно (т. к.

зачастую изображение хранится в памяти построчно):

(, ) () = 0 () + 1 () + 2 ()2 +... + (). (4.6) Далее по формулам подобным (4.4) осуществляется переход от коэффици ентов (), = 0, 1,..., многочленов к начальным значениям конечных разностей (). Полученные коэффициенты () рассматриваются как функции от номера строки. Если таблица является гладкой функцией, то и разности () также будут гладкими, и, следовательно, их также возможно аппроксимировать многочленом степени :

() () = 0 + 1 + 2 2 +... +. (4.7) Наконец, многочлены (4.7) представляются в виде набора разностей, = 0, 1,...,, полученных по формулам (4.4) из коэффициентов. В результате исходная таблица (, ) размера упаковывается в таблицу коэффициентов размера ( + 1) ( + 1), = 0, 1,..., ;

= 0, 1,...,.

Аналогичным образом упаковывается таблица (, ).

При аппроксимации многочленами необходимо подобрать степени поли номов и, таким образом, чтобы с одной стороны обеспечить достаточную точность аппроксимации, а с другой стороны, избежать нежелательных осцилляций аппроксимирующей функции, которые могут возникнуть при ее высоких порядках (подобным феномену Рунге [96, с. 118]).

Распаковка двумерной таблицы разностей может быть осуществлена по следующему алгоритму:

1. Принять, что номер строки = 0.

2. Копировать, для = 0, 1,..., 3. Принять, что номер столбца = 0.

4. Записать в выходную таблицу значение (, ) = 0.

5. Если текущий элемент является последним в строке ( = 1), перейти к шагу 8.

6. Обновить значения + +1, для = 0, 1,..., 1.

7. Обновить номер столбца + 1 и перейти к шагу 4.

8. Если текущая строка последняя ( = 1), завершить работу алгоритма.

9. Для всех = 0, 1,..., и = 0, 1,..., 1 и обновить значения + коэффициентов +.

10. Обновить номер строки + 1 и перейти к шагу 3.

В качестве иллюстрации рассмотрим применение описанного способа аппроксимации таблиц (, ) и (, ) для сжатия таблиц исправления геометрических искажений. На рисунке 4.7 приведено разностное изображе ние исходных и аппроксимированных таблиц преобразований. Темные тона соответствуют максимальной абсолютной разности, светлые — минималь ной. Среднеквадратичное отклонение значений аппроксимированных от значений исходных таблиц составило около 0,014 пикселя, а максимальное абсолютное — около 0,08 пикселя, что значительно меньше погрешности калибровки камеры (в конкретном случае порядка 0,5 пикселя).

На рисунке 4.8 приведены примеры преобразования изображений на основе описанной схемы аппроксимации таблиц функции обратного отобра жения. Корректность аппроксимации можно проконтролировать по разно сти изображений, полученных на основе исходных и аппроксимированных таблиц (рис. 4.8, в). Для синтезированного изображение максимальное зна чение абсолютной разности составило 14 уровней из 255, для реального изображения меньше — 3 уровня из 255.

Таким образом, предложенная модель аппроксимации таблиц геомет рического преобразования изображений позволяет без существенных по грешностей сократить объем долговременной памяти, необходимой для хранения таблиц. Таблица (, ) размера упаковывается в таблицу коэффициентов размера ( + 1) ( + 1), = 0, 1,..., ;

= 0, 1,..., ;

a) б) Рисунок 4.7. Разностные изображения для исходных и аппроксимированных таблиц:

а) для таблицы (, );

б) для таблицы (, ) a) б) в) Рисунок 4.8. Применение аппроксимированных таблиц преобразования для исправле ния геометрических искажений объектива: а) исходное изображение;

б) преобразованное изображение;

в) разностное изображение. Верхний ряд — синтезированное изображение, нижний ряд — изображение калибровочной таблицы = 5, = 5 — порядок полиномов. Для изображения размером 720 576 и при использовании полиномов пятой степени размер уменьшается на четыре порядка. Распаковка таблицы благодаря использованию метода конечных разностей может быть выполнена за ( + ) операций сложения.

Выводы В четвертой главе были рассмотрены вопросы экспериментального и практического характера: приведены экспериментальные данные, позво ляющие убедиться в правильности разработанной модели и достаточной точности алгоритмов калибровки;

описаны алгоритмы формирования и отображения траектории движения транспортного средства и метод аппрок симации параметров геометрического преобразования изображений.

Разработанная модель видеосистемы кругового обзора позволяет учи тывать внешнюю среду при формировании панорамного изображения: за давать вид поверхности, на которой осуществляется «сшивка» панорамы и дальность до нее.

Разработанная модель также может использоваться для построения на панорамном изображении прогнозируемой траектории движения транс портного средства. Для этого необходимо иметь в качестве дополнительных данных угол поворота управляемых колес, длину колесной базы, габа ритную ширину автомобиля, положение и ориентацию центра поворота относительно основной системы координат.

Представленный алгоритм аппроксимации функций геометрического преобразования изображений имеет достаточную точность, снижает требова ния к долговременной памяти системы и позволяет эффективно распаковать данные, используя только операции сложения.

Заключение В представленной работе была достигнута основная цель — повышение качества формирования панорамного изображения в системе разнесенных в пространстве камер. Разработанный алгоритм позволяет формировать панорамное изображение в режиме реального времени.

В качестве основных научных и практических результатов работы можно представить следующее:

1. Предложенная модель системы кругового обзора, описывающая геометрические преобразования при формировании панорамного изобра жения, позволяет учесть взаимное расположение камер и геометрические особенности внешней среды;

2. Разработанная методика нахождения параметров расположения камер в системе обеспечивает достаточную для построения панорамного изображения точность (среднеквадратическая погрешность определения ориентации камеры составляет 0,3, а относительная среднеквадратичная погрешность определения положения камеры составляет 7%);

3. Предложенная модель системы кругового обзора позволяет форми ровать на панорамном изображении прогнозируемую траекторию движения транспортного средства;

4. Разработанный алгоритм аппроксимации функций геометрического преобразования изображений снижает требования к долговременной па мяти системы (на четыре порядка для изображения 720 576), позволяет эффективно распаковать данные, используя только операции сложения, и имеет достаточную точность (максимальная ошибка менее 0,1 пикселя, что заметно превышает погрешность калибровки).

Разработанные модели и алгоритмы в результате натурных испытаний показали свою корректность и практическую применимость. Представля ется перспективным дальнейшее развитие предложенных алгоритмов в рамках объединения системы кругового обзора и систем стереозрения (при этом эти системы могут использовать общие камеры), что позволит улуч шить качество построения панорамного изображения за счет использования дальностной информации.

Условные обозначения и определения Все используемые в работе обозначения раскрываются по ходу изло жения, либо их смысл понятен из контекста. Однако в связи с отсутствием устоявшихся обозначений, а также для облегчения понимания при непоследо вательном чтении, ниже представлены основные используемые обозначения и определения.

Векторное пространство, образованное наборами из действитель ных чисел обозначается как R. Подобным образом, векторное простран ство, образованное действительными матрицами размера, обознача ется как R.

Матрицы обозначены прописными латинскими буквами в полужир ном начертании. Элементы матриц записываются строчными буквами или именем матрицы в квадратных скобках с нижними правыми индексами, означающими номер строки и столбца: к примеру, записи и [A] эквива лентны и означают элемент матрицы A на пересечении строки и столбца.

Нумерация элементов матрицы начинается с единицы.

Некоторые виды матриц имеют собственные названия:

квадратная матрица — матрица A R, для которой число строк совпадает с числом столбцов;

диагональная матрица — квадратная матрица, все элементы которой, стоящие вне главной диагонали, равны нулю;

единичная матрица — диагональная матрица, все элементы которой, стоящие на главной диагонали, равны единице;

треугольная матрица — квадратная матрица, в которой все элементы ниже главной диагонали (верхнетреугольная) или выше (нижнетреуголь ная) равны нулю;

транспонированная матрица — матрица, полученная из исходной за [ ] меной строк на столбцы: [A] = AT ;

симметрическая матрица — квадратная матрица, удовлетворяющая соотношению A = AT = ;

антисимметрическая (кососимметрическая) — квадратная матрица, удовлетворяющая соотношению AT = A = для = ;

ортогональная матрица — квадратная матрица, для которой резуль тат умножения на транспонированную матрицу равен единичной матрице:

RRT = I;

определитель ортогональной матрицы det R = ±1.

За некоторыми часто встречающимися матрицами закреплены сле дующие обозначения:

I R — единичная матрица;

R R33 — матрица поворота в пространстве, ортогональна;

P R34 — матрица перспективной проекции, определена с точностью до масштаба;

K R33 — матрица внутренних параметров камеры, верхнетреуголь ная матрица.

Векторы обозначены строчными полужирными латинскими буквами.

Векторы являются элементами пространства R и в данной работе отож дествляются с элементами пространства R 1, т. е. являются векторами столбцами. Запись компонент вектора в круглых скобках также означа ет вектор-столбец: (,, ) = [,, ]T. Элементы векторов обозначаются строчными латинскими буквами;

при этом могут использоваться нижние правые индексы в виде порядкового номера (начиная с нуля или единицы — оговаривается отдельно);

в виде символов,, или, для трехмерных или двумерных координат соответственно;

а также без всяких индексов для упрощения записи. Примеры обозначений используемых векторов:

p = (1, 2,..., ) R — набор из параметров некоторой модели;

0 = (0, 0,..., 0) R — нулевой вектор, все его элементы равны нулю;

( ) t =,, R3 — вектор переноса;

( ) c =,, R3 — центр камеры;

q = (,,, ) R4 — кватернион;

( ) x = (,, ) R3, p =,, R3 — точки в пространстве;

u = (, ) R2, p = (, ) R2 — точки на изображении.

Операция конкатенации матриц, записывается в виде вертикальной черты (например [ R | t ]) и означает объединение матриц или векторов, представляемых в виде столбцов, в одну матрицу.

Системы координат обозначены прямым шрифтом. Трехмерные ко ординаты образованы правой тройкой перпендикулярных осей X, Y, Z, а двумерные координаты представлены осями U и V. В тех случаях, когда имеется несколько различных системах координат, для их отличия друг от друга используется верхний левый индекс. К примеру, в системе координат W, образованной осями X, Y и Z, координаты некоторой точки записы ваются как x = (,, ). Аналогично, координаты этой точки в системе координат C записываются как x = (,, ).

Однородные координаты точки в пространстве обозначаются надстроч ной тильдой. К примеру, для x = (,, ) однородные координаты опреде ляются и записываются следующим образом: x = (,,, ).

В работе встречаются следующие функции, не часто встречающиеся в литературе, поэтому имеет смысл описать их отдельно.

atan2(, ) — двухаргументная функция арктангенса atan2, впервые появившаяся в языке программирования FORTRAN. Двухаргументная функция арктангенса эквивалентна функции arctg(/) с учетом четвер ти, в которой находится точка (, ), и принимает значения в интервале (;

]. Более формально определение atan2(, ) записывается следующим образом:

arctg(/) при 0, arctg(/) + при 0 и 0, arctg(/) при 0 и 0, atan2(, ) = /2 при 0 и = 0, /2 при 0 и = 0, не определено при = 0 и = 0.

arg min (), arg max () — аргументы минимизации и максимизации;

означают значение аргумента при котором функция () принимает минимальное или максимальное значение соответственно:

0 = arg min () min () = (0 ), 0 = arg max () max () = (0 );

, — операции уменьшения (децимации) и увеличения (интерполя ции) изображения в раз.

Библиографический список 1. Толкачев Д.С. Преобразования координат, связанные с вращением каме ры, при формировании панорамы // Материалы Всероссийской научной конференции «Инновационные процессы в гуманитарных, естественных и технических системах». — Т. 3. — Таганрог: Изд-во ТТИ ЮФУ, 2012. — С. 68–72.

2. Толкачев Д.С. Аппроксимация геометрических преобразований изоб ражений с помощью многочленов // Альманах современной науки и образования. — № 10. — Тамбов: Грамота, 2013. — С. 170–173.

3. Толкачев Д.C. Повышение точности калибровки внешних параметров видеокамеры // Электронный научный журнал «Инженерный вест ник Дона». — 2013. — № 3. — URL: http://www.ivdon.ru/magazine/ archive/n3y2013/1840 (дата обращения: 27.10.2013).


4. Толкачев Д.C. Формирование панорамного изображения с учетом па раллакса при известной модели окружающего мира // Электронный научный журнал «Инженерный вестник Дона». — 2013. — № 4. — URL:

http://ivdon.ru/magazine/archive/n4y2013/1872 (дата обращения:

03.11.2013).

5. Толкачев Д.С. Калибровка системы разнесенных в пространстве видео камер // Материалы Всероссийской научной конференции «Основные тенденции развития в гуманитарных, естественных и технических си стемах». — Т. 2. — Таганрог: Изд-во ТТИ ЮФУ, 2013. — С. 64–68.

6. Liu Yun, Zhang Jiru, Gao Jian. Panoramic technique in the video monitoring system and Implementation // TELKOMNIKA Indonesian Journal of Electrical Engineering. — 2013. — Vol. 11, no. 1. — P. 91–96.

7. Wang X., Wu K., Y. Cheng. Research on Virtual 3D Station based on Images // Applied Mathematics & Information Sciences. — 2013. — Vol. 7, No. 1L. — P. 225–231.

8. Bakstein H., Pajdla T. Panoramic mosaicing with a 180 field of view lens // Omnidirectional Vision, 2002. Proceedings. Third Workshop on. — 2002. — P. 60–67.

9. Thibault Simon, Artonne Jean-Claude. Panomorph lenses: a low-cost solution for panoramic surveillance // Defense and Security Symposium / International Society for Optics and Photonics. — 2006. — P. 62030S–62030S.

10. Thibault Simon. Enhanced surveillance system based on panomorph panoramic lenses // Defense and Security Symposium / International Society for Optics and Photonics. — 2007. — P. 65400E–65400E.

11. Folded catadioptric panoramic lens with an equidistance projection scheme / Gyeong-il Kweon, Kwang Taek Kim, Geon-hee Kim, Hyo-sik Kim // Applied optics. — 2005. — Vol. 44, no. 14. — P. 2759–2767.

12. J. Gaspar, Winters N., Santos-Victor J. Vision-based navigation and environmental representations with an omnidirectional camera // IEEE TRANSACTIONS ON ROBOTICS AND AUTOMATION. — 2000. — Vol. 16, no. 6. — P. 890–898.

13. Nayar S. K. Catadioptric omnidirectional camera // Computer Vision and Pattern Recognition, 1997. Proceedings., 1997 IEEE Computer Society Conference on. — 1997. — P. 482–488.

14. Mobile Panoramic Multispectral Scanner (MPMS)-A New Ground-Based Stereo Panoramic Scanning System for Planetary Robotic Exploration / R Li, L Lin, L Yan et al. // LPI Contributions. — 2012. — Vol. 1683. — P. 1059.

15. Panoramic mapping using CCD-line camera and laser scanner with integrated position and orientation system : Rep. / CITR, The University of Auckland, New Zealand ;

Executor: Ralf Reulke, Aloysius Wehr, Martin Scheele, Karsten Scheibe : 2003.

16. A new ground-based stereo panoramic scanning system / R Li, L Yan, K Di, B Wu // Proceedings of International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. — 2008. — P. 723–727.

17. Toeppen John S, Buchheim Jason. Immersive stereoscopic panoramas // IS&T/SPIE Electronic Imaging / International Society for Optics and Photonics. — 2013. — P. 86481F–86481F.

18. Stereo panoramic image stitching with a single camera / Junguk Cho, Joon Hyuk Cha, Yong Min Tai et al. // Consumer Electronics (ICCE), IEEE International Conference on. — 2013. — P. 256–257.

19. Peleg Shmuel, Ben-Ezra Moshe. Stereo panorama with a single camera // Computer Vision and Pattern Recognition, 1999. IEEE Computer Society Conference on. / IEEE. — Vol. 1. — 1999.

20. Utsugi Kei, Moriya Toshio. A Camera Revolver for Improved Image Stitching // MVA. — 2002. — P. 261–264.

21. Ikeda Sei, Sato Tomokazu, Yokoya Naokazu. Panoramic Movie Generation Using an Omnidirectional Multi-camera System for Telepresence // Proceedings of the 13th Scandinavian Conference on Image Analysis. — SCIA’03. — Berlin, Heidelberg : Springer-Verlag, 2003. — P. 1074–1081.

22. The ultimate immersive experience: panoramic 3d video acquisition / Christian Weissig, Oliver Schreer, Peter Eisert, Peter Kauff // Advances in Multimedia Modeling. — Springer, 2012. — P. 671–681.

23. Geometrical design concept for panoramic 3D video acquisition / O. Schreer, P. Kauff, P. Eisert et al. // Signal Processing Conference (EUSIPCO), Proceedings of the 20th European / IEEE. — 2012. — P. 2757–2761.

24. Neumann Ulrich, Pintaric Thomas, Rizzo Albert. Immersive panoramic video // Proceedings of the eighth ACM international conference on Multimedia / ACM. — 2000. — P. 493–494.

25. Szeliski Richard. Image alignment and stitching: a tutorial // Foundations and Trends in Computer Graphics and Vision. — 2006. — Vol. 2, no. 1. — R P. 1–104.

26. Joshi Hemlata, Sinha Mr KhomLal. A Survey on Image Mosaicing Techniques // International Journal of Advanced Research in Computer Engineering & Technology (IJARCET). — 2013. — Vol. 2, no. 2. — P. pp–365.

27. Zitova Barbara, Flusser Jan. Image registration methods: a survey // Image and vision computing. — 2003. — Vol. 21, no. 11. — P. 977–1000.

28. Mehta Jalpa D, Bhirud SG. Image stitching techniques // Thinkquest 2010. — Springer, 2011. — P. 74–80.

29. Argyriou V, Vlachos T. Estimation of sub-pixel motion using gradient cross correlation // Electronics letters. — 2003. — Vol. 39, no. 13. — P. 980–982.

30. Argyriou V, Vlachos T. Sub-pixel motion estimation using gradient cross correlation // Signal Processing and Its Applications, 2003. Proceedings.

Seventh International Symposium on / IEEE. — Vol. 2. — 2003. — P. 215– 218.

31. Foroosh Hassan, Zerubia Josiane B, Berthod Marc. Extension of phase correlation to subpixel registration // Image Processing, IEEE Transactions on. — 2002. — Vol. 11, no. 3. — P. 188–200.


32. Zhang Ying, Yang Lei, Wang Zhujun. Research on Video Image Stitching Technology Based on SURF // Computational Intelligence and Design (ISCID), 2012 Fifth International Symposium on / IEEE. — Vol. 2. — 2012. — P. 335–338.

33. Crawford Ryan. Automated Image Stitching Using SIFT Feature Matching. — 2012.

34. Automatic image stitching using SIFT / Yanfang Li, Yaming Wang, Wenqing Huang, Zuoli Zhang // Audio, Language and Image Processing, 2008. ICALIP 2008. International Conference on / IEEE. — 2008. — P. 568– 571.

35. Bhosle Udhav, Chaudhuri Subhasis, Roy S Dutta. A fast method for image mosaicing using geometric hashing // IETE journal of research. — 2002. — Vol. 48, no. 3/4. — P. 317–324.

36. Jung Il-Kyun, Lacroix Simon. A robust interest points matching algorithm // Computer Vision, 2001. ICCV 2001. Proceedings. Eighth IEEE International Conference on / IEEE. — Vol. 2. — 2001. — P. 538–543.

37. Vincent Etienne, Laganiere Robert. Matching feature points in stereo pairs:

A comparative study of some matching strategies // Machine Graphics and Vision. — 2001. — Vol. 10, no. 3. — P. 237–260.

38. Brown Matthew, Szeliski Richard, Winder Simon. Multi-image matching using multi-scale oriented patches // Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on / IEEE. — Vol. 1. — 2005. — P. 510–517.

39. Brown Matthew, Hartley Richard I, Nistr David. Minimal solutions for e panoramic stitching // Computer Vision and Pattern Recognition, 2007.

CVPR’07. IEEE Conference on / IEEE. — 2007. — P. 1–8.

40. Fischler Martin A, Bolles Robert C. Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography // Communications of the ACM. — 1981. — Vol. 24, no. 6. — P. 381–395.

41. Zhang Zhengyou. Parameter estimation techniques: A tutorial with application to conic fitting // Image and vision Computing. — 1997. — Vol. 15, no. 1. — P. 59–76.

42. Schneider D, Maas HG. Combined bundle adjustment of panoramic and central perspective images // International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. — 2005. — Vol. 36, no.

5/W8. — P. 4.

43. Brown Matthew, Lowe David G. Automatic panoramic image stitching using invariant features // International Journal of Computer Vision. — 2007. — Vol. 74, no. 1. — P. 59–73.

44. A new calibration model of camera lens distortion / Jianhua Wang, Fanhuai Shi, Jing Zhang, Yuncai Liu // Pattern Recognition. — 2008. — Vol. 41, no. 2. — P. 607–615.

45. Ma Lili, Chen YangQuan, Moore Kevin L. Rational radial distortion models of camera lenses with analytical solution for distortion correction // International Journal of Information Acquisition. — 2004. — Vol. 1, no. 02. — P. 135–147.

46. Radiometric calibration for AgCam / Doug Olsen, Changyong Dou, Xiaodong Zhang et al. // Remote Sensing. — 2010. — Vol. 2, no. 2. — P. 464–477.

47. Goldman Dan B, Chen Jiun-Hung. Vignette and exposure calibration and compensation // Computer Vision, 2005. ICCV 2005. Tenth IEEE International Conference on / IEEE. — Vol. 1. — 2005. — P. 899–906.

48. Kim Seon Joo, Pollefeys Marc. Robust radiometric calibration and vignetting correction // Pattern Analysis and Machine Intelligence, IEEE Transactions on. — 2008. — Vol. 30, no. 4. — P. 562–576.

49. An algorithm for image stitching and blending / Vladan Rankov, Rosalind J Locke, Richard J Edens et al. // Proceedings of SPIE. — Vol. 5701. — 2005. — P. 190–199.

50. Seamless image stitching by minimizing false edges / Assaf Zomet, Anat Levin, Shmuel Peleg, Yair Weiss // Image Processing, IEEE Transactions on. — 2006. — Vol. 15, no. 4. — P. 969–977.

51. Seamless image stitching in the gradient domain / Anat Levin, Assaf Zomet, Shmuel Peleg, Yair Weiss // Computer Vision-ECCV 2004. — Springer, 2004. — P. 377–389.

52. Eden Ashley, Uyttendaele Matthew, Szeliski Richard. Seamless image stitching of scenes with large motions and exposure differences // Computer Vision and Pattern Recognition, 2006 IEEE Computer Society Conference on / IEEE. — Vol. 2. — 2006. — P. 2498–2505.

53. Kang Sing Bing, Szeliski Richard, Uyttendaele Matthew. Seamless stitching using multi-perspective plane sweep // Microsoft Research. — 2004.

54. Black Michael J, Rangarajan Anand. On the unification of line processes, outlier rejection, and robust statistics with applications in early vision // International Journal of Computer Vision. — 1996. — Vol. 19, no. 1. — P. 57–91.

55. Форсайт Д. А., Понс Ж. Компьютерное зрение. Современный подход. — М. : Издательский дом «Вильямс», 2004. — 928 с.

56. Harris Chris, Stephens Mike. A combined corner and edge detector. // Alvey vision conference / Manchester, UK. — Vol. 15. — 1988. — P. 50.

57. Rosten Edward, Drummond Tom. Machine learning for high-speed corner detection // Computer Vision–ECCV 2006. — Springer, 2006. — P. 430–443.

58. Lowe David G. Distinctive image features from scale-invariant keypoints // International journal of computer vision. — 2004. — Vol. 60, no. 2. — P. 91– 110.

59. Bay Herbert, Tuytelaars Tinne, Van Gool Luc. Surf: Speeded up robust features // Computer Vision–ECCV 2006. — Springer, 2006. — P. 404–417.

60. Silpa-Anan Chanop, Hartley Richard. Optimised KD-trees for fast image descriptor matching // Computer Vision and Pattern Recognition, 2008.

CVPR 2008. IEEE Conference on / IEEE. — 2008. — P. 1–8.

61. Muja Marius, Lowe David G. Fast Approximate Nearest Neighbors with Automatic Algorithm Configuration. // VISAPP (1). — 2009. — P. 331–340.

62. Фокс А., Пратт М. Вычислительная геометрия. Применение в проекти ровании и на производстве: Пер. с англ. — М. : Мир, 1982. — 304 с.

63. Szeliski R. Computer Vision. Algorithms and Applications / Ed. by D. Gries, F. B. Schneider. — Springer, 2011. — 812 p.

64. Szeliski Richard. Video mosaics for virtual environments // Computer Graphics and Applications, IEEE. — 1996. — Vol. 16, no. 2. — P. 22–30.

65. Яне Б. Цифровая обработка изображений. — М. : Техносфера, 2007. — 584 с.

66. Burt Peter, Adelson Edward. The Laplacian pyramid as a compact image code // Communications, IEEE Transactions on. — 1983. — Vol. 31, no. 4. — P. 532–540.

67. Шапиро Л., Стокман Дж. Компьютерное зрение. — М. : БИНОМ. Лабо ратория знаний, 2006. — 752 с.

68. Numerical Recipes in C: The Art of Scientific Computing / William H. Press, Saul A. Teukolsky, William T. Vetterling, Brian P. Flannery. — 2-nd edition. — New York, NY, USA : Cambridge University Press, 1992. — 994 p. — ISBN: 0-521-43108-5.

69. Bradski Gary, Kaehler Adrian. Learning OpenCV. — Sebastopol : O’Reilly, 2008. — 555 p.

70. Никулин Е. А. Компьютерная геометрия и алгоритмы машинной гра фики. — СПб. : БХВ-Петербург, 2003. — 560 с.

71. Weisstein Eric W. Gnomonic Projection. From MathWorld–A Wolfram Web Resource, Wolfram Research, Inc. — URL: http://mathworld.wolfram.

com/GnomonicProjection.html.

72. Weisstein Eric W. Stereographic Projection. From MathWorld–A Wolfram Web Resource, Wolfram Research, Inc. — URL: http://mathworld.

wolfram.com/StereographicProjection.html.

73. Weisstein Eric W. Orthographic Projection. From MathWorld–A Wolfram Web Resource, Wolfram Research, Inc. — URL: http://mathworld.

wolfram.com/OrthographicProjection.html.

74. Weisstein Eric W. Cylindrical Projection. From MathWorld–A Wolfram Web Resource, Wolfram Research, Inc. — URL: http://mathworld.wolfram.

com/CylindricalProjection.html.

75. Weisstein Eric W. Cylindrical Equidistant Projection. From MathWorld–A Wolfram Web Resource, Wolfram Research, Inc. — URL: http://http:// mathworld.wolfram.com/CylindricalEquidistantProjection.html.

76. Weisstein Eric W. Mercator Projection. From MathWorld–A Wolfram Web Resource, Wolfram Research, Inc. — URL: http://http://mathworld.

wolfram.com/MercatorProjection.html.

77. Циссарж В. В., Марусик Р. И. Математические методы компьютерной графики. — К. : Факт, 2004. — 464 с.

78. Diebel James. Representing attitude: Euler angles, unit quaternions, and rotation vectors // Matrix. — 2006. — Vol. 58. — P. 15–16.

79. Tsai Roger. A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses // Robotics and Automation, IEEE Journal of. — 1987. — Vol. 3, no. 4. — P. 323–344.

80. Sturm Peter F, Maybank Stephen J. On plane-based camera calibration:

A general algorithm, singularities, applications // Computer Vision and Pattern Recognition, 1999. IEEE Computer Society Conference on. / IEEE. — Vol. 1. — 1999.

81. Zhang Zhengyou. Flexible camera calibration by viewing a plane from unknown orientations // Computer Vision, 1999. The Proceedings of the Seventh IEEE International Conference on / Ieee. — Vol. 1. — 1999. — P. 666–673.

82. Zhang Zhengyou. A flexible new technique for camera calibration // Pattern Analysis and Machine Intelligence, IEEE Transactions on. — 2000. — Vol. 22, no. 11. — P. 1330–1334.

83. Hartley R., Zisserman A. Multiple View Geometry in Computer Vision. — 2-nd edition. — New York : Cambridge University Press, 2004. — 655 p.

84. Ranganathan Ananth. The Levenberg-Marquardt algorithm // Tutoral on LM Algorithm. — 2004.

85. Guennebaud Gal, Jacob Beno et al. Eigen v3. — 2010. — URL: http:

e it //www.eigen.tuxfamily.org.

86. Jones Eric, Oliphant Travis, Peterson Pearu et al. SciPy: Open source scientific tools for Python. — 2001–2013. — URL: http://www.scipy.org.

87. On the minimization over SO(3) Manifolds : Rep. / NASA Ames Technical Report ;

Executor: Frank O Kuehnel : 2003.

88. Complete solution classification for the perspective-three-point problem / Xiao-Shan Gao, Xiao-Rong Hou, Jianliang Tang, Hang-Fei Cheng // Pattern Analysis and Machine Intelligence, IEEE Transactions on. — 2003. — Vol. 25, no. 8. — P. 930–943.

89. Moreno-Noguer F., Lepetit V., Fua P. Accurate Non-Iterative O(n) Solution to the PnP Problem // Computer Vision, 2007. ICCV 2007. IEEE 11th International Conference on. — 2007. — P. 1–8.

90. Schweighofer Gerald, Pinz Axel. Globally Optimal O(n) Solution to the PnP Problem for General Camera Models. // BMVC. — 2008. — P. 1–10.

91. Bradski G. // Dr. Dobb’s Journal of Software Tools. — 2000.

92. Home of the Blender project — Free and Open 3D Creation Software, The Blender Foundation. — URL: http://www.blender.org.

93. Левитин А. Алгоритмы: введение в разработку и анализ. Пер. с англ. — М. : Издательский дом «Вильямс», 2006. — 576 с.

94. Корн Г., Корн Т. Справочник по математике (для научных работников и инженеров). — М. : Издательство «Наука», 1973. — 832 с.

95. Беклемишев Д. В. Дополнительные главы линейной алгебры. — М. :

Наука. Главная редакция физико-математической литературы, 1983. — 336 с.

96. Каханер Д., Моулер К., Нэш С. Численные методы и математическое обеспечение: Пер. с англ. — М. : Мир, 1998. — 575 с.



Pages:     | 1 | 2 ||
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.