авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:   || 2 | 3 | 4 |
-- [ Страница 1 ] --

ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ

Факультет радиофизики и электроники

Кафедра интеллектуальных систем

КУРС ЛЕКЦИЙ

по специальному

курсу

«Теория принятия решений и распознавания образов»

Учебное пособие для студентов

факультета радиофизики и электроники

Минск

2005

1

УДК 681.31:621.38

ББК 32.841я43+32.85я43

ISBN 5-06-0004597

Рецензенты доктор технических наук В. А. Зайка кандидат технических наук, доцент А. А. Белый Рекомендовано Ученым советом факультета радиофизики и электроники 2003 г., протокол №_ Шестаков К. М.

Р15 Курс лекций по специальному курсу «Теория принятия решений и распознавания образов»: Учебное пособие для студентов фа культета радиофизики и электроники. – Мн.: БГУ, 2005. –.

ISBN 985-445- Рассматривается методика формирования описаний классов и ситуаций, составления алфавита признаков и его минимизации, распознавания обра зов по цветовому описанию, геометрическим параметрам, а также по при нятию решений в интеллектуальных системах. Теоретические сведения по могают разрабатывать рациональные алгоритмы процедур поддержки при нятия решений, распознавания образов и реализовывать их в современных средах программирования.

Предназначено для студентов факультета радиофизики и электроники.

УДК 681.31:621. ББК 32.841я43+32.85я ISBN 5-06- © БГУ, ВВЕДЕНИЕ Промышленность развитых стран, банковские структуры, службы ох раны, правоохранительные органы широко используют системы техни ческого зрения для управления технологическими процессами, сорти ровки изделий, автоматизированной дактилоскопии, охраны и т. п. При менение этих систем создает базу для построения полностью автомати зированного производства, роботизированных предприятий торговли и т.д. Развитее компьютерных технологий в последнее десятилетие вывело в практическую плоскость задачу создания систем с элементами искус ственного интеллекта. Теория принятия решений важнейшее звено в формировании математического базиса таких систем.

Рост вычислительной мощности цифровых систем обработки данных, удешевление компонентов мультимедийной аппаратуры сделали реаль ными, в приемлемом диапазоне цен, разработку и создание автоматизи рованных комплексов по идентификации объектов на базе их двумерных и трехмерных описаний. Использование таких комплексов в охранных системах банков, различных предприятий работающих с клиентами по зволит повысить качество обслуживания и надежность проводимых опе раций, а также позволит автоматизировать технологический процесс сборки и контроля промышленной продукции, особенно на конвейерах.

В пособии анализируются истоки курса теории принятия решений. Ос новное внимание уделяется современным методам анализа ситуаций, об разов, классическим и производным критериям принятия решений.

Рассмотрены модели используемые для описания риска и полезности, количественным характеристикам ситуаций возникающих при принятии решений. Правила выбора решений при распознавании образов, оптими зация процесса распознавания, вероятностные модели компонентов про странства признаков, правила проверки гипотез.

Учебное пособие ориентировано и на специалистов, работающих в области компьютерных систем и технологий.

1. Истоки курса теории принятия решений и распознавания образов 1.1. Введение в проблематику курса Курс тесно связан с понятием – “интеллектуальные системы”. В про шлом термин «интеллект» можно было применить напрямую только к человеку. Различные науки выделяли отдельные признаки, пытаясь дать определение данному понятию. Вот некоторые из них.

Наука Биология Психология Философия Что Способность Характеристика ум- Познание, понимание, такое человека ственного развития, рассудочная способ интел адекватно определяющая его ность к абстрактноана тел- реагировать способность целесо- литическому расчлене лект на изменение образно действовать, нию (Гегель);

способ окружающей рационально мыс- ность к образованию среды. лить. понятий (Кант).

В двадцатом столетии в области исследования интеллекта сформиро вались два важных научных направления:

- распознавание образов;

- принятие решений.

Теория принятия решений и теория распознавания образов прочно вошли в математический базис интеллектуальных систем, составляя сердцевину теории искусственного интеллекта. Они имеют довольно много схожего, как в предмете, методике исследования так и в приложе нии результатов. Зарождение данных направлений связано с появлением компьютеров. Носителем результатов исследований стало программное обеспечение, а в отдельных случаях и архитектура вычислительных сред.

Собственно интеллектуальность в искусственных системах присуще именно программным продуктам или, если говорить более обобщенно, наполнению памяти и переключателей связей интеллектуальных систем.

В подавляющем большинстве своем аппаратные средства современ ных компьютеров и системы на их основе в той или иной степени потен циально интеллектуальны, но только построенный по определенным принципам программный продукт добавляет им это свойство. Сегодня мы только приближаемся к построению программ способных распозна вать другие программные продукты, определять их свойства, задейство вать их функции в своих задачах. Такие виртуальные миры дело будуще го и думается ближайшего.

В средах же программирования на уровне компиляторов, процессы заимствования идут полным ходом и составляют важнейшие парадигмы современного программирования. Начинаются они с присвоения про граммному продукту уникального имени – идентификатора и продолжа ются до объявления доступных объектов и их свойств передаваемых че рез интерфейсы COM, CORBA и т.п.

Однако признаки искусственного интеллекта и их возможные носите ли (задача о приделах возможностей технической системы в оценке си туации) исторически рассматривались довольно давно. Декарт, Лейбниц делали попытки сравнить человека с машиной в области умственной деятельности. Легендарные прообразы искусственных интеллектуальных систем - Франкенштейн, Голлем отображали и страх человека перед ме ханическими существами, наделенными искусственным разумом.

Но реально, только в сороковые годы прошлого столетия началось ос воение предметной области.

У.Р. Эшби в связи с началом работ по моделированию интеллектуаль ной деятельности человека ввел понятие “самоорганизующаяся система”.

В 1955-1956 г. Дж. Маккарти впервые употребил термин “искусствен ный интеллект”, который и получил дальнейшее развитие, став обозна чением обширной области науки и техники. Между ними работа Алана Тьюринга “ Может ли машина мыслить” (1950), в которой наиболее про сто ставится вопрос о достижении границы искусственного разума.

Стала стандартом и процедура Тьюринга: А задает вопросы В и С от вечают, В или С – машина. Необходимо по ответам распознать машину.

Испытания по данному тесту продолжаются до сего времени.

Интересно и то, что одновременно были высказаны количественные оценки требуемой мощности аппаратных средств. Например, объем па мяти компьютера в миллиард бит должен быть достаточен для 5 минут ного общения среднего человека с 70% вероятностным исходом не рас познавания машины, как источника ответов. Достижение этой границы автор предсказывал через 50 лет.

Однако по мере развития науки о искусственном интеллекте изменя ются и прогнозы. Один из них – компьютер производительностью в мил лиард операций в секунду, с памятью объемом 1012 1015 бит с време нем доступа 50 нс потенциально достаточен для принятия решений при неполном описании ситуации с логической надежностью близкой к че ловеку. Сегодня данным требованиям практически удовлетворяет персо нальный компьютер.

Последние десятилетия наибольшие успехи в области интеллектуаль ных систем достигнуты в решении частных задач. Текущее столетие же переводит в практическую плоскость решение следующих вопросов:

- Сможет ли человек познать процесс анализа ситуации, принятия ре шений идущий в его мозге?

- Можно ли вложить полученные знания в архитектуру технической системы, ее программное обеспечение?

- Сможет ли искусственная система превзойти своего создателя, быть «умнее» его?

Как шутил кибернетик И.А. Полетаев «Определите, что такое мышле ние и мы его быстренько запрограммируем».

Внешне проявление осмысленного участия кого то в принятии «ра зумных» решений выглядит как его правильность, оптимальность, дока занные по прошествии некоторого времени, достаточного для исчезно вения неопределенности в оценки последствий этого решения.

Принимаемые решения – правильны, если они предполагают риск не выше допустимого и дают наибольший выигрыш по априорной инфор мации о ситуации. Поведение системы, принимающей правильные ре шения, часто называют стандартным.

«Разумные» решения дают наибольший выигрыш по апостериорным данным, полученным по прошествии принятия решения.

Можно считать что системы «думают не стандартно», если разница выигрыша от принятия ими «разумных» решений по сравнению с по следствиями правильных решений существенна. Конечно наиболее про сто такой результат выявляется в конкурирующей среде многих систем с различным поведением, направляемых через механизм конкуренции.

При этом, так же ощутимый процент участников проигрывает системам, принимающим правильные решения.

Интеллектуальные системы потенциально обучаемы, если они содер жат средства корректировки решающих правил, метрик пространств, в которых анализируются ситуации и оснащены техническими средствами получения информации о последствиях принимаемых решений.

Однако не следует упрощать проблему понимания механизмов функ ционирования мозга человека. Это задача не только столетий но и, дума ется, тысячелетий. Весьма серьезные исследователи функций мозга не отвергают и гипотез о вне земном происхождении мысли.

В двадцатом столетии значительную нагрузку в области умственной деятельности взяли на себя САПР, созданные для различных областей деятельности человека, сократив в десятки и сотни раз затраты человеко часов, необходимых для выполнения явно интеллектуальных задач в разработке, проектировании, проведении экспериментов и анализе их ре зультатов. Эти системы не конкурируют с человеком, а дополняют его способности. Но без них создание конкурентно способных изделий не реально.

Технические системы начинают распознавать речь человека и подра жать ему в ответах, имитируя ритм и тон собеседника, ведутся работы в области распознавания слов по движениям губ. Они берут на себя управ ление самолетами, автомашинами на испытательных трассах и оценива ют ситуацию не редко более правильно, чем это делает человек. В кон курентную схватку они вступили на игровых полигонах – шахматах и др.

Роботы-гуманоиды соревнуются между собой в лиге гуманоидов на фут больных полях. Перед разработчиками ставится задача в обозримом бу дущем выставить команду для игры с командами людей и обыгрывать последних.

Все эти признаки показывают стремительный рост реальных научных достижений в распознавании образов и принятии решений техническими системами.

Начинаются работы по стандартизации конструкции роботов, их внутренней электроники, беспроводных интерфейсов, системам навига ции. Эти процессы сосредоточены в одних руках, их координируют спе циалисты фирмы Intel и связаны в основном с продвижением линейки процессоров технологии Xscale, но данная отрасль привлекает интересы многих производителей, что должно привести к появлению и независи мой организации по стандартизации систем.

Теория принятия решений в определенном смысле более общая наука, чем теория распознавания образов, она как бы поглощает последнюю. Но исторически сложилось так, что как в теории так и в практике достиже ния в распознавание образов, существенно опередили применение выво дов теории принятия решений. Да и наработанный материал, введенные термины вносят свою специфику. На рис.1. приведены узловые инте гральные операции построения выводов в обеих науках.

Рис.1. Последовательность действий при распознавании образов (а) и принятии ре шений (б) Курс состоит из двух дополняющих друг друга разделов. Вопросам подготовки описания ситуации наибольшее внимание будет уделено в разделе теория распознавания образов (ТРО), а формирование оконча тельного вывода детально рассматривается в разделе теория принятия решений (ТПР).

1.2. Краткий анализ рекомендуемых литературных источников Рассматриваемые в курсе вопросы тесно связаны с предметной обла стью теорий статистических выводов, игр, оценок, полезности, планиро вания эксперимента, оптимального управлением, оптимальной обработ ки сигналов и т. п.

Математическая статистика, дающая наиболее гибкие инструменты для анализа экспериментальных данных, часто рассматривается и с ак тивной позиции, как наука о статистических решениях, вырабатывающая рекомендации по выбору оптимальных способов поведения и управления в случайных ситуациях. Именно в этом понимании, она является базой теорий принятия решения и распознавания образов.

В определенной степени указанные науки вошли в математический базис кибернетики [1]. Математические модели, описывающие случай ные процессы рассматриваемые в курсе, достаточно полно изложены в учебном пособии [2]. Однако, каждый слушатель в вопросах связанных с приложениями теории вероятностей [3] может опираться и только на по лученные знания в университете и те литературные источники, которые он изучал.

В работах [4-9] рассмотрена специфика наработанного материала по формирования образов, идентификации объектов в различных областях.

Монография Себестиана [10], вышедшая в 1962 году, в области распо знавания образов является первой работой, интегрирующей результаты исследований в США. Как говорится в предисловии редактора перевода, только эта страна в то время обладала вычислительными машинами с ог ромной оперативной памятью в 100 тысяч слов, которые необходимы для ведения работ в данной области.

Книга написана как учебное пособие, математический аппарат строг, но просто изложен. Практически все узловые вопросы современной тео рии распознавания образов обозначены. Изображения трактуются как вектора в пространстве признаков. В этом пространстве определены мет рики и расстояние. Распознаваемые подмножества в этом пространстве, определены как классы.

Метрика пространства признаков преобразуется для повышения ком пактности классов. Вероятность принадлежности нового объекта к дан ному классу оценивается через функцию подобия. Разделяющая функция относит точку в пространстве признаков к тому классу, которому она наиболее подобна. Классификация рассматривается как задача теории решений. Решающее правило минимизирует риск при распознавании.

Рассмотрены и вопросы обучения, нейросетевые приложения в распо знавании и т. п.

В монографии Вапника В.Н. и Червоненко А.Я. [11] основной акцент делается на обучение систем распознавания образов, в частности приме нительно к нейросетевым структурам.

В работе Дуда Р., Харта П. [12] очень хорошо изложены основы байе совского подхода к распознаванию образов и принятия решений.

Цикл лекций Гренандера У. [13-15] подытоживает развитее науки о распознавании в период ее становления.

В монографии Патрика Э. [16] излагаются вопросы теории распозна вания образов на академическом уровне, с довольно абстрактным мате матическим аппаратом. Она полезна для углубленного изучения вопроса.

Учебные пособия [17-18] образуют предельно минимальный набор литературных источников, дополняющих курс лекций.

В последние годы наибольшее применение в описании проблематики теории принятия решений находит понятие нечеткой информации, моде ли и их анализа. Такой подход можно изучить по работам [19-23].

Последующие работы [24-44] дополняют список литературы, конкре тизируя отдельные вопросы, рассматриваемые в курсе. Как правило, смысловое содержание названия книги соответствует специфике рас сматриваемого в ней вопроса.

Лабораторные практикумы позволят Вам получить навыки в форми ровании образов – [42], их обработке и принятию решений применитель но к специфике курса – [43].

2. Случайные события и процессы 2.1. Статистические модели в описании объектов, признаков, обра зов, классов, ситуаций и процедур Предметом анализа ТПР и ТРО являются объекты различной физиче ской, химической, биологической, социальной природы. Это могут быть изображения, звуки, описания рыночной конъюнктуры по виду товара в определенной области земного шара, математические формулы, концеп ции и т. п.

В результате анализа формируется математическая модель объекта – вспомогательный искусственный объект, имеющий сходство с оригина лом в определенном пространстве его свойств и характеристик. Модель должна удерживать только полезные для изучения свойства объекта, это один из наиболее очевидных путей получения более простого представ ления об оригинале, чем он сам.

Модель должна быть при последующем использовании адекватна оригиналу с заданной точностью, удерживать частное в общем в конкретной группе задач, эффективна (проще, удобнее или давать новую информацию об объ екте), экономична т.е. не требовать для анализа больших ресурсов, чаще вычислительных, чем имеет исследователь в своем распоряжении для решения поставленной задачи.

Процесс создания модели включает в себя следующие механизмы:

определения состава (кортежа, алфавита) свойств объекта, подлежа щих исследованию, составление набора технических средств для оценки выбранных свойств объекта, получения сведений (опыта, знаний), от других систем об свойствах подобных объектов, использование аналогий, анализ всех данных для формирования описания области существова ния объекта в пространстве обозначенных свойств.

Можно выделить две цели, преследуемых при анализе конкретного объекта:

1. Составление описания группы схожих объектов (класса), в простран стве выбранных свойств (признаков);

2. Отнесения текущего объекта к одной из обозначенных групп (клас сов).

В системах с самообучением, как правило, параллельно стремятся достичь обе цели.

Свойства объекта в математической формулировке – переменные мо гут быть детерминированными и случайными, числовыми и лингвисти ческими. Детерминированные числовые не требуют пояснения. Число вые случайные и лингвистические переменные рассмотрим подробнее.

Лингвистическая переменная описывается кортежем [X,T(X),U,G,P], где: X – имя переменной (пример из [19] о возрасте на шкале лет - моло дой);

T(X) – множество значений переменной (термы) (очень молодой, моло дой, старый, очень старый);

U – универсальное множество (универсум), на котором задана перемен ная (возраст), такое множество удерживает свойства всех объектов (на пример: множество всех действительных чисел, на шкале которого зада ется возраст, или множество всех комплексных чисел используемых для отображения спектральных образов колебательных процессов);

G – синтаксическое правило, порождающее термы;

P – семантическое правило, ставящее каждому X его смысл, P(X) – не четкое множество заданное на U (27 лет – молодой, 62 года – старый или очень старый).

Семантическое правило может выдавать и цифры, например вероят ности, в данной точке U существования конкретного терма.

Область существования свойств X на U реально может быть ограни чена. Ограничения на существование x в u отображаются зависимостями R(x;

u). Они допускают только те x=u, которые удовлетворяют условию u R (x). Например: возраст человека ограничивается диапазоном чисел от 0 до 200.

Рис.2. Области задания лингвистических переменных (ин, ик, нн, нк, ндн, ндк – на чало и конец идеальной, нечеткой, недопустимой областей) На рис.2 представлены примеры областей задания логических пере менных: 2а – на оси одного свойства, 2б – в пространстве трех свойств на поверхности.

Наряду с ограничениями задается и семантическое правило формиро вания имени переменной. На рис. 2в приведен пример задания вероятно сти P определения конкретного значения переменной в границах нечет кой области.

Причиной появления не четкого описания переменных служат:

1. Ограничения на ресурсы измерительных средств, средств наблюде ния, средств очувствления и т. д. приводят к описанию объекта в нечет кой словесной (символьной) форме.

2. Пакет передачи опыта включает в себя и совокупность не четких пра вил. Оценки свойств интервальные или заданы по экспертным заключе ниям с разрешением не достаточным для проведения анализа.

3. В процессе создания (жизни) объекта реализуется ряд альтернативных вариантов промежуточных решений по его самоорганизации, которые приводят к неопределенности свойств объекта, появляется нечеткое описание свойств, например, образ самолета противника.

4. В описании цели присутствует ряд не четко заданных словесных кон струкций.

Различают так же синтаксическую нечеткость (Железные болты и гайки. Ограничение, железные, действует только на болты или и на гайки тоже) и семантическую – не ясен смысл фразы. Часто в литературе встречаются термины: случайные исходы, нечеткая информация, нечет кая функция полезности, нечеткая цель и т. п. Новая терминология по рождает и новую формулировку задач, как, например. Интерпретация вероятности и возможности на основе распределения уверенности.

Лингвистические переменные в первом приближении можно оцифро вать, ранжировав их по эффективности. Тогда переменная превращается в вектор, число степеней свободы которого равно числу ее термов. Далее эффективно используется аппарат анализа числовых случайных пере менных.

Случайной функцией называется функция, значение которой при ка ждом данном значении аргумента (или нескольких аргументов) является случайной величиной. Всякая функция, которой оказывается равна слу чайная в результате опыта, называется реализацией случайной функции.

Скалярная функция одного скалярного вещественного аргумента (в каче стве которого обычно выступает время) называется случайным процес сом. Случайная функция нескольких скалярных вещественных аргумен тов (обычно координат точек пространства) называется случайным по лем.

Случайная величина, событие появляется в некотором пространстве размерностью n. Это пространство определено в классической теории вероятностей, как пространство исходов. Размерность пространства за висит от числа составляющих случайную величину частей (компонентов) и возможных числовых значений (уровней), которые могут принимать эти компоненты. В компьютерных приложениях, как правило, число раз решимых уровней i для i -го компонента принимается равным i = 2ti, где ti - целое число.

Изображения имеют некоторую специфику формирования потока дан ных. Растровые форматы представления изображений передают инфор мацию о нем по точкам. Если точка (пиксель) характеризуется кодирова нием цвета с ti = 1, то говорят о бинарном представлении i - компоненты, при ti 1 - о полутоновом. Точка обычно представлена в трех RGB или четырех RGB компонентном пространстве, в последнем случае добав ляется - компонента, характеризующая прозрачность пикселя.

Трех компонентное пространство в целочисленном представлении для полутонового описания пикселя может быть представлено в формате с перекодировкой, это 16 - и 256 - цветные модели. Такой файл описания изображений сопровождается перекодировочной таблицей. По таблице коды преобразуются в представление без кодировки с ti = 8. Эти форма ты получили еще название индексированных. Элемент матрицы ai,j явля ется указателем на таблицу цветов. Число используемых цветов равно 2K, где K - количество бит, используемый для хранения элемента матрицы.

Цвета в указываемой таблице могут кодироваться другим числом бит.

Например, в 256 цветовых режимах видеоадаптеров выбирается 256 цве тов из 262144 возможных, так как выбираемые цвета представляются в RGB формате и для каждой цветовой компоненты кодируется 6-ю бита ми. Существует много методов преобразования многоканальных изо бражения в индексированные (Error diffusion, ближайшего цвета...).

Форматы без перекодировки включают в себя и варианты с комбина циями t R = 5, tG = 6, t B = 5 и ti = 5.

Однако в практике систем распознавания образов более правильно об рабатывать сигналы непосредственно с АЦП CCD или SMOS матриц приборов наблюдения.

Монохромные приборы дают однокомпонентное описание точки с t = 8, 10, 12, 14 и у приборов ультра высокого качества t = 16.

Описание точки с цветных приборов существенно усложнено. На ри сунках 3, 4 приведены варианты нанесения цветовых фильтров на фото приемники матрицы.

Рис.3. Однородное заполнение Рис.4. Выделен зеленый цвет Каждый фотоприемник поставляет сигнал, который с учетом окруже ния перекодируется в RGB представление цифровым процессором сиг налов камеры. Однако указанное не исчерпывает всех вариантов встре чающихся описаний изображений. Дальнейшие преобразования продол жают изменения.

Представление пикселя в распространенных цветовых системах при ведено в таблице 1.

Таблица 1.

Цветовая Бит 1-ый компо- 2-ой 3-ий компонент система нент компонент RGB Красный Зеленый Синий Truecolor 8:8:8 0-255 0..255 0- RGB Красный Зеленый Синий Highcolor 5:6:5 0-31 0-63 0- 5:5:5 0-31 0-31 0- RGB Красный Зеленый Синий Extended 12:12:12 0-4095 0-4095 0- 16:16:16 0-65535 0-65535 0- CMY Голубой Пурпурный Желтый 8:8:8 0-255 0-255 0- LAB Яркость Канал A Канал B 8:8:8 0-255 0-100% 0-100% YIQ Яркость Синфазный Суммарный 8:8:8 0-255 0-255 0- HLS Тон Яркость Насыщенность 0- 8:8:8 0-100% 0-100% HSB Тон Насыщенность 0- Яркость 8:8:8 0-360 100% 0-100% Такие преобразования, естественные для восприятия изображения че ловеком или удобные для передачи данных, печати в системах распозна вания является дополнительными, зашумляющими сигнал операциями.

Кроме того при изменении соотношения цветовых составляющих сме щаются оценки положения границ объектов, что в высокоточных прибо рах не допустимо.

При цветовых преобразованиях необходимо также помнить, что меж ду цветовыми моделями CIE, CMY, RGB, YIQ существуют аффинные преобразования, тогда, как между HLS и HSV- нет. Данное обстоятель ство будет заметно, если изображение, содержащее непрерывные цвето вые переходы, переводить, например, из HLS в RGB (на изображениях может появиться разрыв непрерывности).

Наиболее эффективно вести распознавание получив «чистый» сигнал с матрицы. Но на практике это решение не всегда возможно. Цифровые процессоры сигналов камеры наблюдения, последующих устройств фор мируют сигналы в одном из указанных стандартов и обратное преобразо вание не эффективно, так как первичная информация частично потеряна.

Не редко отличительными признаками могут являться сами компоненты стандартного сигнала, например, цветовой тон в стандарте HSB. Поэтому все указанные кодировки сигналов встречаются в задачах распознавания.

Как следует из выше сказанного в современных системах с распозна ванием изображений описание пикселя представляется 8-16 битами, ко торое может первичным преобразованием увеличиваться до 24-32 битного.

Распознаваемый объект представлен j пикселями. Тогда объем про странства исходов ti = i или = 2 j i.

j Специфика описания ситуации в задачах распознавания образов и принятия решений в значительной величине объема пространства исхо дов. Даже для сегмента описания объекта 3 3 и с 24 - битным представ лением пикселя он превышает 10 65.

Наряду с пространством исходов в математической статистике вво дятся понятия F - - алгебры подмножеств заданных на. Которое определяет совокупность подмножеств множества, базирующихся на теоретико-множественных операциях – объединении, пересечении, обра зовании дополнения и замкнутых относительно счетных объединений. В ТПР особенно актуален расчет метрики пространства, она определяет расстояния между объектами и в конечном итоге потери при не правиль ных решениях.

Третий объект P - вероятность на F.

Набор объектов (, F, P ) называется вероятностной моделью или ве роятностным пространством задачи и полностью описывает ситуацию, если определены в нем все рассматриваемые классы, цели и потери.

Обозначим результаты наблюдения, заданные в пространстве исхо дов, X t, где t, - целые положительные числа. Для текущего наблю дения моменты съема информации будем считать расположенными во времени равномерно. Отсчет t будем вести от нуля в каждом новом на блюдении. Разность t k или t 0 индексирует данные опыта, которые или предшествовали текущему наблюдению, или отстоят от те кущего отсчета на расстоянии большем, чем расстояние влияния (корре ляции) k. При k мы имеем текущую обучающую выборку, которая влияет на вывод в момент времени.

Данные опыта, дополненные оценками результатов распознавания, принятия решений и составляют априорную информацию об объекте ис следования на момент начала текущего наблюдения. Как следует из оп ределения, вероятностное пространство можно считать заданным если известно Pj для всех распознаваемых классов, ситуаций ( j - индекс класса). Исследователь сам решает интегральную или дифференциаль ную форму описания (функция распределения или плотность вероятно сти) использовать на практике. Однако большее распространение полу чила дифференциальная форма. Она более наглядна. Рассмотрим не сколько часто используемых функций распределения вероятности.

Нормальное распределение.

( xµ ) 1, px = l 2 Рис. 5. Нормированная плотность одномерного нормального распределения ( =1, µ =0) Его плотность (рис. 5) зависит от двух параметров - среднеквадра тичного отклонения и µ - математического ожидания.

Вид нормированной функции распределения для нормального зако x pt на Fx = приведен на рис. 6.

t = Рис. 6. Нормированная интегральная функция одномерного нормального распреде ления ( =1, µ =0) Нормальный закон в ТРО и ТПР используется довольно часто. Он хо рошо подходит для оценки симметричных, много причинных случайных событий при слабом доминировании какой либо из причин. В описании шумовых сигналов, подчиняющихся нормальному закону, утвердился термин – белый шум (обычно шум от многих источников практически равной энергии).

В игровых ситуациях нередко приходится иметь дело с событиями, образами, плотность распределения вероятности появления которых близка к равномерному закону распределения.

На рис 7-8 приведены нормированные функции дифференциальная и интегральная для равномерного распределения вероятности.

Рис. 7. Нормированная плотность од- Рис. 8. Нормированная интегральная номерного равномерного распределе- функция одномерного равномерного ния ( 1, µ =0) распределения ( 1, µ =0) Равномерное распределение вероятности задается как правило на слитном участке оси пространства исходов. Хотя такой признак не обя зателен, в сложных системах отдельные участки на оси могут быть за прещены и события в них не появляются.

Для равномерного закона при нулевом значении центра интервала ( x a) p x = 2a, где a - ширина полуинтервала.

0 ( x a) Это примеры симметричных законов распределения. Многие образы имеют тенденцию к многочисленности на границе интервала своего су ществования. К ним относятся многие биологические объекты, природ ные включения (например, камешки и т. п. в пластах полезных ископае мых), отсортированные по размеру. На рис. 9, 10 приведен вид кривых экспоненциального закона распределения, практически хорошо подхо дящий для указанных случаев.

Рис. 9. Нормированная плотность од- Рис. 10. Нормированная интегральная номерного экспоненциального распре- функция одномерного экспоненциаль деления ( 1) ного распределения ( 1) Экспоненциальный закон распределения p x = r exp( r, x), ( r 0, x 0 ), где r - параметр, имеющий размерность, обратную размерности оси x и определяющий разброс случайной величины.

Для удобства сравнения, все примеры (рис. 7-10) приведены с тем же параметром 1, что и пример нормального закона распределения (рис.

5, 6).

Но реальные образы как правило многомерны. В практике обработки изображений наибольшее распространение находят двумерные функции описания яркости и соответственно двумерные распределения вероятно сти появления простейших образов.

На рис. 11, 12 представлено изображение и распределение интенсив ности в сечении сформированного лазерного пучка, часто используемого в сканирующих системах. Оно близко по форме к двумерной функции плотность нормального распределения.

Рис.11. Изображение зондирующего лазерного пучка (пиксель) Рис.12. Распределение интенсивности в приделах пикселя Двумерные функции распределения учитывают взаимное влияние вы падения у текущего случайного события определенной координаты по одной оси от величины на второй. Наиболее просто это пояснить на при мере.

( x µ ) x + x ( ) y µy ( ) p y, x = exp, 2 2 1 y 2 y x 1 2 ( ) (x µ x ) y µ y 2 x y где 1 – коэффициент корреляции координат x, y случайного собы тия, i 0 – среднеквадратичное отклонение (стандартное отклонение) по оси i, µ i - математическое ожидание по оси i.

Для непрерывного представления осей пространства исходов K y, x =, y x (x µ x ) (y µ y ) p( y, x ) dy dx где K y, x = - взаимная корреляци онная функция.

Степень взаимосвязи между параметрами точек в пространстве исхо дов уменьшается по мере увеличения расстояния между ними. Обще принято считать независимыми события разнесенные в пространстве ис ходов на наименьшее расстояние, на котором ( - допустимый в анализе коэффициент ошибки). Это расстояние получило название ра диуса корреляции. События разнесенные на расстояние большее, чем ра диус корреляции принято считать не зависимыми.

В задачах распознавания образов взаимосвязь не редко сохраняется в приделах всего сегмента образа. Под сегментом образа будем понимать участок пространства минимальных размеров, описывающей рассматри ваемый образ. Например, сохраняется связь цветовых характеристик пикселей биологического, ботанического объекта по всему объему при его конкретной реализации в большей степени, чем между различными объектами конкретного класса. Еще больше расстояние и степень связи у искусственных объектов. Это необходимо учитывать при проведении ис следований. Проведя оценку цветовых характеристик пикселей в приде лах одного объекта нельзя считать выборки не зависимыми. Только ис следование многих объектов дает достоверную информацию для описа ния характеристик класса.

Функции распределения вероятности в технических системах могут быть заданы аналитически или таблично. В практике же статистического анализа более принято использовать функционалы от них.

2.2. Оценка параметров и функций в анализе ситуаций Наиболее употребимы определения точек ожидания появления собы тий, это математическое ожидание, медиана, мода. Для одномерного пространства исходов это скаляры, для многомерного - вектора.

Математическое ожидание µ можно определить по плотности функ ции распределения - µ = x p x, или по выборке размером n + 1 x xi, где i - порядковый номер зафиксированного события xi, µ= n +1 i i изменяется от 0 до n, недостоверные отсчеты не фиксируются. Данная характеристика получила еще название абсциссы центра тяжести плот ности распределения случайной величины. Не достоверные выбросы, ко торые могут появляться в ряде случаев сильно смещают этот параметр.

Математическое ожидание, как основная характеристика свойства объ екта часто используется в задачах с многократным повторением проце дур распознавания или принятия решения.

Медиана ( median ) определяет координаты точки, относительно кото рой появление событий справа и слева равновероятно. Другое определе ние – абсцисса прямой, параллельной оси ординат и делящей фигуру под плотностью вероятности на две одинаковой площади. Для возрастающе го ряда x без интерполяции можно записать:

x max median = min x x, i = x pi ix pi = min где xmin, xmax - границы интервала проявления x, знак выделяет ус ловие, которому должен удовлетворить переменная, в данном случае x x max x pi pi. Ориентация на ме выбираются только те, для которых i = x min i=x диану оправдана тогда, когда величина отклонения случайной величины от интервала положения медианы не играет роли и важно только попада ние в цель. При этом процедура распознавания применяется многократ но. Медиана более устойчивая к аномальным явлениям характеристика, чем математическое ожидание.

Мода ( moda ) выделяет точку или отрезок на оси, на котором величи на плотности вероятности имеет максимальное значение. Другое опреде ление – абсцисса наиболее вероятного события.

moda = x max p.

x Мода часто выбирается в качестве цели при однократном применении решения. Эта характеристика наиболее чувствительна к помехам и не четкости информации, чем математическое ожидание.

Перечисленные параметры оценивают координату ожидаемого ре зультата. Возможна в практическое применение и их комбинации, как нелинейная так и линейная, например, величина wait _ µ :

wait _ µ = k1 µ + k 2 median + k3 moda, ki = 1.

где k1, k 2, k3 - коэффициенты доверия и i = Вторым по важности параметром является оценка ожидания разброса случайной величины. Эти оценка могут быть выражена числом, или ин тервалом на оси абсцисс, а для многомерных величин эллипсоидом, не редко носящим имя эллипсоида рассеяния.

На практике наибольшее применение получили функционалы вида g 1 1 n m m m xi µ или m 1 p j x j µ, n i =0 j = где i - номер зафиксированного события (0-n), j - номер канала, x j, p j - абсцисса канала, вероятность попадания события в канал, на графике плотности вероятности (0-g), m - показатель степени, положительная величина, целая или дробная, определяет метрику данного критерия.

При m =1, говорят об оценке разброса через величину среднего ариф метического отклонения, при m =2, оценивается разброс через величину среднеквадратичного или стандартного отклонения. Чем выше величина m, тем более влияют выбросы в измерениях и соответственно величина отклонения.

Определим усредненную симметричную оценку параметра разброса s случайной величины при наличии неопределенности в задании коэф фициента m.

b s = k i mi, i = где k i коэффициенты доверия оценки отклонения с mi - показателем b k i = 1;

i - порядковый номер функционала со степенным степени и i = коэффициентом mi, i изменяется от 1 до b - числа конкурирующих оце нок.

Оценка интервала (его границ), существования проявлений объектов исследуемого события, обычно ведется при задании ограничения на ве роятность появления события вне интервала или внутри интервала.

Рис.13. Интервалы анализа Для одномерного случая с равным распределением вероятности ошибки определения интервала справа и слева границы доверительного интервала можно определить, как x1 = max( x x p ) ;

i i = min_x max_x x 2 = min( x ), pi i= x где - заданная вероятность ошибки, min_x, max_x границы интервала учета событий.

Определение доверительного интервала позволяет уменьшить про странство исходов.

Очень часто одно из граничных значений координаты появления со бытия берется за исходную точку для осторожного принятия решения, которое обычно ориентируется на наихудшее стечение обстоятельств.

Эта координата соответствует появлению наиболее не желательного со бытия. В этом случае вводится понятие допустимой вероятности появле ния более неблагоприятного события, чем те которые учитываются. Ис ходя из этого ограничения и определяется наиболее важная граница до верительного интервала.

Наряду с естественными системами координат, описывающими про странство исходов, используются и искусственные системы, производ ные от естественных. Например, из координат трехмерного пространства и времени формируются системы пространственных и временных частот.

В таких системах так же задаются интервалы существования объектов одного класса.

2.3. Статистические исследования при формировании описания образов и ситуаций Одно из ключевых понятий теории распознавания образов - понятие класса. Это искусственный объект удерживающий отличительные свой ства группы объектов подлежащих распознаванию, как образ с одним именем. Отличительные свойства, участвующие в распознавании, полу чили название признаков, а их набор – алфавита признаков.

Рис.14. Сегмент в поле изображения Рис.15. Сегмент в памяти вычислителя Изображения после ввода их в память компьютеров, ЦПС, микрокон троллеров имеют вид слитного массива с по пиксельным описанием. Ин туитивно и, как показывает практика, более корректно при программи ровании его представить двумерным массивом, состоящим из строк и столбцов.

Сегментация неизбежный атрибут обработки изображений, широко применяемый при распознавании образов. Разбиение изображения на фрагменты позволяет ограничить размер исходных файлов. В выделен ных сегментах, содержащих исследуемые объекты, и проводится их дальнейшая обработка. Это позволяет сократить объем пространства ис ходов и понизить вычислительную нагрузку на систему обработки дан ных.

Простейшее формирование сегментов для последующей обработки заключается в выделении прямоугольного окна, перемещающегося по массиву.

Пусть координата столбца – x отсчитывается слева направо, коорди ната строки – y сверху вниз. Сформируем бегущий сегмент и зафиксиру ем его на характерных участках объектов.

Пусть исходное изображение имеет размеры ym, xm. Назначим разме ры сегмента ys, xs и зададим шаг сегмента по столбцу и строке – hy, hx.

Размер строки анализа xm равен целому числу шагов hx плюс размер сегмента xs. Число строк анализа ym равно целому числу шагов hy плюс размер сегмента ys.

Общее количество сегментов в строке nx, в столбце ny и по полю ns будут равны:

ym ys xm xs ns = ny nx = floor ( + 1) floor ( + 1), hy hx где floor – целая часть числа.

Введем текущий номер сегмента j от нуля и определим координаты первого пикселя сегмента yj, xj:

j yj0 = floor ( ) ny, xj0 = mod( j, nx) nx, nx где mod(x,a) – остаток от x по модулю a.

Сегмент с текущим номером j (например: r(j)) сформируем как суб матрицу из общей матрицы (R), указав начало и конец субматрицы по столбцу и строке:

r ( j ) = submatrix ( R, yj0, yj0 + ys 1, xj0, xj0 + xs 1).

Реальный адрес ячеек в памяти для последнего пикселя в строке, если адрес первого пикселя Adr0 = 0, Adrxm 1 = ( xm 1) p, где p - размер описания пикселя в байтах.

Адрес первого пикселя ( N ) сегмента в памяти устройства распозна вания на j шаге AdrN j = yj0 xm p + xj0 xs p.

Адрес первого пикселя следующей строки данного сегмента AdrN1 j = yj0 xm p + xj0 xs p + xm p.

Рассмотрим методику формирования описаний объектов на примере задачи сортировки интегральных схем различных типов. На рис.16.

представлено изображение корпусов различных микросхем. Ниже в таб лице 2 представлены выбранные сегменты корпусов, фона и гистограмм ы цветовых составляющих их описаний.

Рис.16. Корпуса интегральных микросхем Таблица Металл Фон Пластик Керамика 1 2 3 В таблице 3 и на рисунках 17-19 проведены величины интегральных параметров и их взаимное положение в пространстве исходов.

Таблица Металл Фон Пластик Керамика 1 3 meanR = 185 meanR = 153 meanR = 18.27 meanR = meanG = 184 meanG = 201 meanG = 81.05 meanG = meanB = 162 meanB = 233 meanB = 52.84 meanB = stdevR = 15.26 stdevR = 8.33 stdevR = 10.88 stdevR = 31. stdevG = 12.14 stdevG = 3.51 stdevG = 10.77 stdevG = 38. stgevB = 12.03 stgevB = 8.16 stgevB = 14.14 stgevB = 31. stgevR stgevR stgevR stgevR = 0.082 = 0.054 = 0.595 = 0. meanR meanR meanR meanR stgevG stgevG stgevG stgevG = 0.066 = 0.017 = 0.133 = 0. meanG meanG meanG meanG stgevB stgevB stgevB stgevB = 0.074 = 0.035 = 0.267 = 0. meanB meanB meanB meanB Рис.17. Оценка величин математического ожидания Рис.18. Оценка величин среднеквадратического отклонения Рис.19. Оценка относительных величин среднеквадратического отклонения Абсолютные значения сигналов редко на практике используются в ка честве координат пространства исходов. Они зависят от множества фак торов – освещенности и т.п. Поэтому рассмотрим более стабильные па раметры, для чего разделим цветовые компоненты сигналов на суммар ный сигнал на объекте и определим доверительные интервалы существо вания объектов в пространстве исходов.

Ri ri = ;

Ri + Gi + Bi Gi gi = ;

Ri + Gi + Bi где i - 1-4 порядковый номер объекта.

На рис. 20 и рис. 21 приведены графики доверительных зон по r и g компонентам раздельно.

Рис.20. Оценка доверительных интервалов нормированного красного Рис.21. Оценка доверительных интервалов нормированного зеленого Интегральные зоны показаны на рис. 22 и рис. 23. На первом из них не учитывается понижение вероятности появления обеих признаков на краю зон, в этом случае описание зон существования объектов имеет вид прямоугольников. Более правильное их представление – упрощенными эллипсоидами рассеяния показано на втором рисунке. Номера парамет ров соответствуют номерам объектов в таблицах 2, 3.

Рис.22. Оценка доверительных интервалов с предположением равномерной вероят ности появления признака у объекта по всему доверительному интервалу Рис.23. Оценка доверительных интервалов при понижающейся к границе интервала вероятности появления признака у объекта Приведенный пример пробного, прикидочного исследования призна ков объектов не свободен от ряда упрощений и неточностей.

Рассмотрим их в ходе рекомендуемой методики проведения исследо ваний положения объектов, классов в пространствах признаков и ситуа ций.

1. Определитесь с целью исследования – формализуйте задачу. Это важ ный этап, он может привести к, так называемым, системным ошибкам в постановке и решении задачи. Исправить последствия этих ошибок чрез вычайно сложно, практически решение задачи придется начинать заново.

В рассматриваемом примере мы ставим задачу распознавания четырех объектов по RGB описаниям их пикселей с телекамеры низкого качества.

2. Наберите достаточный статистический материал об объектах рассматриваемых классов. Мы ограничились выборкой 600 слитных то чек с объектов. Практически взято по одному зашумленному сегменту без фильтрации (результат хорошо виден на примере объекта №4 - кера мический корпус в сегменте соседствует с металлической пластиной).

Такой выбор возможен только при поверхностном анализе. В практике распознавания объектов по их изображениям число точек включаемых в анализ превышает сотни тысяч, а главное их необходимо брать с различ ных объектов исследуемого класса, в различных условиях наблюдения и освещения. Практическая рекомендация – информация с одного экземп ляра объекта только одно измерение, пусть при этом проанализировано несколько тысяч пикселей. Корреляция между параметрами точек на объекте достаточно велика и это делает отсчеты зависимыми.

3. Постройте гистограммы и по их виду сделайте оценку формы функ ций распределения, рассчитайте рабочие функционалы, планируемые в алфавит признаков. Стремитесь использовать мало зависящие от внешних условий параметры. Мы выбрали в признаков R, G, B описа ния и их среднеквадратичные отклонения, для справки вычислили отно сительные величины.

4. Постройте доверительные интервалы существования объектов классов в пространстве признаков. Современные компьютеры, матема тические пакеты позволяют проводить довольно большие объемы иссле дований в короткие сроки. Наиболее просто для визуального анализа отобразить положение классов в пространстве двух признаков.

5. Если области существования классов пересекаются увеличьте коли чество признаков измените существующие. На рис. 22 объекты классов практически не различимы по выбранным признакам.

На рис. 24 представлены области существования классов по измененным признакам. В качестве последних выбраны выражения 4 Ri rni =, (Ri + Gi + Bi ) i 4 Ri gni =, (Ri + Gi + Bi ) i что практически означает нормировку по интегральному световому по току со всех объектов. На рис. 24 представлен результат – класс пласти ковых корпусов (№3) в данном пространстве резко выделен и различим.

Рис.24. Оценка доверительных интервалов с предположением равномерной вероят ности появления признака у объекта по всему доверительному интервалу и норми ровкой по общему световому фону Необходимо учитывать то, что формализованные алгоритмы стан дартных расчетов даже на объемных массивах данных в тысячи пикселей выполняются в миллисекунды, поэтому рабочий алфавит признаков мо жет содержать несколько десятков компонентов. Все полученные значе ния ожидаемых оценок случайных величин – каждый столбик гисто граммы, оценки центральных моментов сами по себе случайные величи ны. Для корректного использования они должны удовлетворять опреде ленным требованиям, вернее стремиться соответствовать им:

При увеличении числа испытаний они должны стремиться к истинной величине параметра, с ростом объема данных n разница между искомым значением и расчетным - должна становиться сколь угодно малым числом ( 0 при n ). Такие оценки получили название состоя тельных.

Оценка считается несмещенной, если она не содержит систематиче ских составляющих погрешности Оценка должна быть эффективной т. е.

обеспечивать минимальный разброс в оценке искомой величины в за данном объеме исследований.

Первое требование не всегда можно обеспечить так как эргодических случайных описаний образов на практике не так много. Окружающий нас мир непрерывно развивается и практически все свойства объектов имеют определенную тенденцию изменения значений (тренд). Поэтому наибольший вес в анализе имеют “свежие” данные.

Важной спецификой в анализе исходных данных в принятии решений является и очень большой объем возможной информации, можно потра тить жизнь изучая специфику изображений определенного класса, на пример, бровей на лице человека, выбирая все большее количество объ ектов. Это с одной стороны.


С другой стороны достаточно в течении нескольких часов проанали зировать несколько десятков реализаций, что бы вложить стартовый ма териал в систему распознавания лиц форму бровных дуг в рабочий алфа вит.

В развивающейся интеллектуальной системе компоненты алфавита признаков непрерывно корректируются, при этом вес последней инфор мации, как правило, выше веса данных более ранних.

Аппаратное вычисление параметров закона распределения, плотности распределения одна из традиционных основных составных частей мате матической статистики. Специфика ПР и РО конкретизирует решение данной задачи. При анализе статистического ряда x0...xi...xn рекоменду ется следующая последовательность действий:

определение математического ожидания µ ;

определение среднеквадратичного отклонения ;

прореживание статистического ряда;

задание метрики оси абсцисс и числа каналов;

подсчет чисел событий попавших в каналы;

при близости полученной гистограммы к известным законам распределений заменяют исследуемую гистограмму известной кривой распределения.

Отметим специфику некоторых из перечисленных операций.

При прореживании статистического ряда удаляются недостоверные отсчеты с номером j, таких что x j µ (3...5), на практике не редко их не удаляют, а перемещают в ближайшую точку доверительного ин тервала, это позволяет сохранить метрику сетки последовательных от счетов, что важно при проведении корреляционных, спектральных ис следований.

Количество каналов анализа задается исходя из соображений по - тре буемой компактности описания конкретного класса, реального объема выборки, потерь от недостоверного определения формы функции плот ности вероятности.

Вычислительная нагрузка возрастает в квадратичной степени или бо лее резко от увеличения объема описания классов. Конкретный вид зави симости определяется сложностью алгоритмов распознавания.

Число событий попавших в канал является в каждом эксперименте случайной величиной и величина ее доверительного интервала зависит от числа событий принимающих участие в эксперименте, а положение его еще и от параметров, вида функции плотности распределения веро ятности исследуемого события.

При малом числе испытаний определение доверительного интервала наиболее корректно через биноминальный закон распределения - закон Пуассона.

На рис. 25, 26, 27 приведены графики плотностей распределения этого закона для различных длин каналов анализа и различных чисел опытов.

События не зависимы.

Рис.25. Вид плотности распределения вероятности появления событий в каналепри числе опытов 6 для длин интервалов подсчета 5 и Рис.26. Вид плотности распределения вероятности появления событий в канале при числе опытов 10 для длин интервалов подсчета 2 и Рис.27. Вид плотности распределения вероятности появления событий в канале при числе опытов 30 для длин интервалов подсчета 20 и Исследуемый процесс подчинен равномерному закону распределения и может принимать значения от 0 до n. Индексы при p1. Величина отно шения значения индекса к n – искомая вероятность.

Во всех случаях математические ожидания, полученные в экспери ментах, совпадают с искомыми. С ростом числа экспериментов диспер сии определения оценок плотности вероятности уменьшаются. Изменя ется и вид кривых распределения – они становятся симметричней и при ближаются по форме к нормальному распределению.

Реально при n 10 целесообразнее в силу его простаты и распростра ненности пользоваться графиками нормального закона.

Центральная предельная теорема (ЦПТ) в теории оценок говорит о том, что при большом числе случайных явлений их средние характери стики перестают зависеть от каждого отдельного явления и получают ус тойчивость т. е. перестают быть случайными. Пользуясь ими можно рас познавать случайные явления и предсказывать поведение случайных процессов. Для сумм случайных отсъемов, фигурирующих в оценках функций распределения и их параметров можно записать:

nx Y = i, i =1 kn ki где i - 1...n номера отсчетов, kn, ki - нормировочный, и весовой коэф фициенты учета отсчета в итоговой сумме.

kn ki = 1.

i Математическое ожидание и дисперсия случайной величины для не зависимых по ЦПТ равны:

µY = µ xi (kn ki )1, i DY = Dxi (kn ki )1, i Для µ xi = µ x = const и D xi = D x = const kn ki = n, µY = µ x, D DY = x, n а среднее квадратичное отклонение оценки величины Y уменьшается с ростом n Y = x.

n Усреднение лежит в основе подавляющего числа исследований в во обще и определения зон существования классов в пространстве призна ков.

На первый взгляд различные по величине Dxi отсчеты не так уж час ты. Но в практике интеллектуальных систем при самообучении новая информация и та, что отражает накопленный опыт соседствуют рядом.

Новая информация имеет большую достоверность, чем предыдущие от счеты того же объема. Тем не менее оценка на основании накопленного опыта, в следствии интеграции качественно большего объема данных, характеризуется высокой достоверностью. При этом дисперсии могут разнятся на несколько порядков. Однако накопленный опыт не содержит детальной предыстории. Один из простейших выходов из ситуации, но довольно рациональный, это эволюционная корректировка данных, на пример, с ki = D x 1.

i Изложенный подход используется при определении всех параметров законов распределения и его вида.

При определении дисперсии уменьшают делитель на единицу, ото бражая тот факт, что число независимых данных при расчете дисперсии меньше на единицу общего количества отсчетов.

(xi µ x ) o Dx = i.

n Эта оценка не смещенная. Дисперсия оценки величины дисперсии n 1 µ4x DD x = Dx, n (n 1) n где µ 4 - четвертый центральный момент, зависящий от вида закона рас пределения, для нормального закона распределения µ 4 x = 3 Dx и 2 2 µ 4 x = 1.8 D x DD x = Dx, для равномерного и n 0.8 n + 1.2 DD x = Dx.

n (n 1) Если вид закона распределения не известен то используют методику определения величины доверительного интервала через параметры зако на распределения Стьюдента. В этом случае абстрагируются от парамет ров закона распределения, а ориентируются только на число опытов и заданную из вне вероятность появления события в доверительном интер вале. Величина доверительного интервала тогда o = t ( p, n ), где t ( p, n ) - коэффициент Стьюдента. Данный коэффициент находится из одноименного закона распределения исходя из заданной величины веро ятности попадания в доверительный интервал. Вид плотности распреде ления для числа степеней свободы n n n 2 1 t 1 + p(t, n ) =, (n 1) n 1 n где ( x ) - гамма функция. Интегральное распределение задает величину доверительного интервала.

На рис. 28, 29 показано влияние заданной величины вероятности про маха от числа опытов и значения коэффициента.

Рис.28. Вид плотности распределения вероятности Стьюдента в зависимости от ве личины коэффициента и числа опытов (индекс 20 и 4) Рис.29. Изменение участка распределения вероятности Стьюдента в зависимости от величины коэффициента (индекс 3 и 2) и числа опытов Графики повторно показывают практическое снижение влияния числа опытов на вид закона распределения величины оценки доверительного интервала при числе независимых отсчетов более 10.

Гистограмма оценивает вероятность появления события в определен ной зоне пространства признаков.

x, j Ii o p = i, n j x, где I i j - индекс появления события на участке j в отсчете i, он ра вен 1 при появлении события на участке и нулю если был промах. Дан ) ( ная оценка не смещенная. Ее дисперсия p j 1 p j Do =.

p n j Выше приведенные выражения работают строго только для независи мых отсчетов, отстоящих друг от друга на расстоянии большим, чем ра диус корреляции.

Корреляционный анализ случайных величин является одним из важ ных разделов математической статистики. Он широко используется уже в течение многих десятилетий. Большие возможности применения кор реляционных представлений в физических и технических науках откры лись с возникновением корреляционного анализа случайных функций, которое можно отнести к 1920г., когда Тэйлор ввел понятие корреляци онной функции. Очень важное значение имело установление в 30-х годах Н. Винером и А. Я. Хинчиным связи между корреляционными и спек тральными характеристиками случайных процессов. Разработка теории информации, сформировавшейся к концу 40-х годов, показала, что коли чество информации, заключенной в сигнале, существенно зависит от корреляционных свойств.

Реально встречающиеся случайные функции очень часто можно счи тать нормальными, а каждая нормальная случайная функция может быть полностью описана в рамках корреляционной теории. В то время и для случайных функций, не являющихся нормальными, эта теория дает ответ на целый ряд важных вопросов. Выделим два направления по использо ванию аппарата корреляционного анализа:

применение корреляционных функций и их параметров в качестве ха рактеристик идентифицирующих сигналы, применение корреляционных функций в качестве характеристик идентифицирующих системы передачи информации.

К первому из указанных направлений можно отнести исследования, от носящиеся к распространению волн, в том числе радиоволн, звуковых волн, исследование шумов различной физической природы, статистиче ских свойств изображений;

анализ отдельных звуков речи и слогов;

при менение в геофизике и метеорологии;

применение в биологических и ме дицинских исследованиях и т. д.

Во второй группе ведущее место занимает экспериментальное опре деление корреляционных характеристик объектов;

оно позволяет выяс нить динамические свойства объектов по данным их нормальной работы без применения каких-либо искусственных возмущений и играет весьма важную роль при проектировании систем. К этой же группе относятся корреляционные методы снижения влияния искажений, вносимых при передаче сигнала, оценки качества переходных процессов в линейных системах;


исследования акустических характеристик помещений, изме рения звукоизоляции и звукопоглощения;

определения частото контрастных характеристик систем наблюдения.

Уже приведенный здесь беглый перечень дает представление о значе нии и достаточно широком распространении корреляционного анализа.

В курсе наибольшее внимание уделяется распознаванию объектов по форме и параметрам взаимно корреляционных функций между иссле дуемым объектом и эталонами классов.

Величина корреляционной функции может быть представлена следую щим образом:

x y p( y, x ) dy dx, K y, x = или расширив пространство исходов временными осями процессов ( t1, t 2 ) получим x y p( y, x, t1, t2 ) dy dx.

K y, x,t1,t 2 = Положив x = y, получим автокорреляционную функцию процесса X (t ).

Таким образом, автокорреляционную функцию можно рассматривать как частный вид взаимной корреляционной функции.

Автокорреляционные и корреляционные функции зависят как от сте пени взаимосвязанности случайных процессов, так и от дисперсии этих процессов. Для того чтобы получить меру взаимосвязанности, абстраги рованную от величин дисперсии, производят нормирование корреляци онных функций. Нормированные корреляционные функции называют коэффициентами корреляции:

K x, y, t1, t x, y,t1,t 2 =.

K x,t1 K y, t В практике широко используется представление описаний классов в производных пространствах. Наиболее широко рассматриваются поиск отличительных признаков объектов в области пространственных частот.

На рис. 30 представлены модуль частотного спектра изображения рамки и на рис. 31 его сечение. Видны четко участки преобладающих частот, которые можно использовать как признаки.

Рис. 30. Фурье образ R составляющей сегмента рамки С учетом корреляционных соотношений и понятий верхних и нижних частот (временных для случайных процессов, пространственных для объектов в 3 мерном пространстве) уточним понятия оценки дисперсии параметров случайной величины.

Рис. 31. Сечение Фурье образа R составляющей сегмента рамки Для оценки математического ожидания, получаемой накоплением данных за временной интервал 0...T T 2 Q Dµ = 1 K (Q ) dQ.

o T T Здесь связь с корреляционной функцией. Довольно часто K ( ) = C e cos( ), где C,, параметры характеризующие размах, скорость спада час тоту колебаний корреляционной функции.

Для вычисления K ( ) с погрешностью менее 5% от K (0 ) необходимо интегрировать данные не менее T 20 +.

2 + Например: при =0,2 c 1, = T 102 с.

c Реально данные поступают дискретно с интервалом (во времени, в геометрическом пространстве и т. п.) x( ) x[( + µ ) ], K (µ ) = N где =1, 2,... и µ =1, 2,... слагаемые номера отсчета.

Для 2% точности вычисления корреляционной функции необходимо 1 1, часто выбирают, или, 20 f max 10 f max 5 f max где f max - максимальная частота важная для анализа и учета.

2.4. Распознавание в математической статистике Два раздела математической статистики тесно связаны с процедурой распознавания:

определения вида и параметров функциональной зависимости между случайными событиями и их сочетаниями;

проверка статистических гипотез, в ходе которой выбирается вид за кона распределения наиболее подходящий для описания исследуемого события, определяются его параметры и устанавливается степень согла сия принятых решений с реальным объектом.

Статической называют зависимость, при которой изменение одной из величин влечет изменение распределения другой. В частности, статисти ческая зависимость появляется в том, что при изменении одной из вели чин изменяется среднее значение другой;

в этом случае статическую за висимость называют корреляционной.

Зависимость между двумя и более случайными событиями из мно жеств Y, X можно представить в общем виде Y = ( X, A), где A - множество параметров a j A.

Рассмотрим простейший случай. Пусть реальные отсчеты в i - том эксперименте порождают наборы результатов yi и xi ( i = 1...n ), между которыми предполагается наличие связи yi = ( xi, A).

Будем искать такие a j, которые минимизируют функционалы отклоне ний (ошибок) предсказания величины yi по значениям xi.

В качестве рабочего функционала ошибки примем сумму квадратов отклонений [ yi (xi, A)]2 min.

i Будем искать решение в точках экстремума для чего дифференцируем выражение по компонентам вектора A.

[ yi (xi, A)] a = 0, x= x i i где =1... m.

Это m нелинейных уравнений и в общем случае они аналитически не решаются.

Для поиска линейной зависимости между двумя величинами решение существует.

y = a1 x + a2, = xi, a1 x = x i = 1, a2 x = x i [ yi (a1 xi + a2 )] xi = 0, i [ yi (a1 xi + a2 )] = 0.

i Решая систему уравнений находим n 1 xi yi µ o µ x o y i a1 =, () o xi2 µx n i a2 = µ o a1 µ x, o y где µ o - оценки математических ожиданий.

Задавая исходный участок по x не большим по размеру и расширяя его с проверкой постоянства параметров A (через их положение в дове рительном интервале оценок) можно получить кусочно-линейную оцен ку функциональной зависимости для большинства случаев анализа ком понентов пространства признаков. При нарушении постоянства A (при выходе за пределы доверительного интервала) вводится новый участок.

Реально аналитические выражения существуют и для квадратичного вида зависимости.

Проверка статистических гипотез предполагает оценку вероятности и достоверности принадлежности закона распределения рассматриваемой случайной величины одному из известных. При этом такие понятия, как доверительный интервал оценки плотности распределения вероятности по полученной гистограмме работает и в этом случае.

Совокупность известных и включенных в описание гистограмм состав ляют набор классов.

Проведенные исследования добавляют в рассмотрение новую гисто грамму, которая может быть отнесена к известному классу.

Такой подход стандартен в составление описания классов, т. е. часть описания класса может быть заменена ссылкой - именным индексом на известные описания свойств одного из классов.

Для примера воспользуемся генератором случайных чисел и сгенери руем вектор из 1000 чисел. Найдем разницу в оценке гистограммы реа лизации px j (рис. 32) и теоретического распределения p j (рис. 33).

Рис. 32. Нормированная гистограмма Рис. 33. Плотность распределения с па вектора из 1000 чисел, распределенных раметрами исследуемого вектора по нормальному закону Рис. 34. Погрешность отнесения гистограммы реального вектора к теоретическому закону График разности приведен на рис. 34. Вычислим интегральную оцен ку ошибки по формуле ( p j px j )2.

d= j Расчетная величина d = 0,03.

Из приведенного примера можно сделать вывод о том, что реальная погрешность представления гистограммы случайного вектора чисел тео ретической гистограммой или одной из известных всегда будет иметь место.

Методика определения подходит или нет один из имеющихся в базе данных классов гистограмм для исследуемого класса может быть пред ставлена последовательностью следующих шагов:

1. Вычисляем нормированную гистограмму исследуемого вектора дан ных (нормировка заключается в делении чисел в каналах на общее число учтенных реализаций).

2. Генерируем известные графики распределений.

3. Определяем разность между гистограммой исследуемого вектора и из вестными.

4. Определяем метрику риска или потери полезности и вычисляем инте гральный параметр ошибки.

5. По min (где - k индекс класса) данного параметра выбираем искомый k класс k.

6. Проверяем на допустимость ошибки, если ошибка не допустима фор мируем описание исследуемого класса с новой формой функции распре деления, внося ее в базу данных распределений.

Если ошибка допустима проверяем гипотезу статистической досто верности принадлежности реализации случайной величины к известным по форме и параметрам законам распределения.

Для проверки формы функции обычно используют критерии согласия Пирсона или Колмогорова. Проверка гипотез о значении параметра функции распределения заслуживает в нашей теме более детального рас смотрения.

Для простоты, задачу о параметре a функции распределения f a ( x ) n - мерной случайной величины x ( x1...xn ) рассмотрим, как проверку двух гипотез H 0 и H1.

При этом H = H 0 (a = a0 ) и H = H1 (a = a1 ).

Все пространство исходов разбивается на две не пересекающиеся об ласти E0, E1, в которых наиболее целесообразны решения a = a0 (E0 ) и a = a1 (E1 ). Пространство решений полное т. е. H 0 = H1.

При распознавании образов под искомым параметром понимается, как правило, физическая величина, например, выход изделия в брак, наличие или отсутствие примеси, сигнал или шум в локации и т. д.

Отношение правдоподобия или коэффициент правдоподобия опреде ляется по формуле f a ( x1,...xn ) Ln ( x1,...xn ) = 1, f a0 ( x1,...xn ) где f a j ( x1,...xn ) вероятность того, что при конкретной реализации x1,...xn имеет место событие a j.

Вывод о событии a1 делается если Ln C, где C - порог принятия решения.

Реально величина порога зависит от многих факторов и прежде всего от допустимой вероятности принятия не правильного решения.

Ошибка первого рода - принимается решение a1, а это a0, обозначим вероятность такого решения.

Ошибка второго рода - принимается решение a0, а это a1, обозначим вероятность такого решения.

Часто данные ошибки имеют символьное описание, например в лока ции пропуск цели, ложная тревога или в промышленности риск изгото вителя (отбраковано хорошее изделие), риск потребителя (получен брак).

Очевидно продолжение испытаний (рост n ) приводит при слабо корре лированных xi к понижению и. Т. е. порог принятия решения в общем случае является функцией платы за ошибочные решения, допус тимой вероятности ошибки первого или второго рода и числа испытаний C (, n ), C (, n ), C (, ). Задание такого порога при ограничении на или позволяет минимизировать n. При заданном n минимизиро вать или.

Для однородной независимой выборки введя логарифмирование по лучим логарифм коэффициента правдоподобия ln, который также широ ко используется на практике, получив название "различимости" a1, a в точке x1,...xn.

][ ]} n {[ ln = ln Ln = ln f a1 ( xi ) ln f a0 ( xi ).

i = В теории распознавания образов часто используют понятие случайной смеси. При этом параметрическое пространство A представляется ко () нечным числом точек a1,... am с заданной вероятность появления P a j.

Для вектора можно вычислить конечную смесь () H (x ) = f a j (x ) P a j.

j В этой трактовке классы определяются как индексы тех параметриче ских векторов, которые имеют не нулевые смеси.

2.5. Риск и его описание В структуру основных математических конструкций ТПР и ТРО вхо дит матрица последствий принятия решений.

В ТРО наиболее распространена, как правило, квадратная матрица, строки и столбцы которой представляют распознаваемые классы. В таб лице 4 представлена квадратная матрица состоящая из n столбцов и n строк.

Строки показывают ситуации, которые могут возникнуть при распо знавании неизвестного объекта, например объекта с номером i.

Столбцы показывают последствия решений ei,j при наличии (предъ явлении) образа из j -го класса, а распознавании его как образа из i -го класса.

Таблица Предъяв- Образ 1... Образ j... Образ n лен/ Распознан Образ 1......

e1,1 e1,j e1,n..................

Образ i......

ei,j ei,1 ei,n..................

Образ n......

en,1 en, j en, n В ТПР данная матрица как правило не симметрична (таблица 5).

Строки отражают последствия конкретного решения (1... n ), столбцы вы деляют ситуации в которых осуществляется принятое решение (1... m ).

Под ситуацией часто понимается внешняя обстановка, например, харак тер и объем решаемых задач, которые могут возникнуть при функциони ровании компьютерной системы, решения по типу конфигурации кото рой принимается.

Таблица Ситуация m Ситуация/ Ситуация 1... Ситуация j...

Решение Решение 1......

e1,1 e1,m e1,j..................

Решение i......

ei,j ei,1 ei,m..................

Решение n......

en,1 en, j en, m Для конкретной области применения ei,j часто называют полезностью решения т. е. предполагается то, что данная величина положительна. В заранее убыточных задачах матрица заполняется величинами платы за принимаемые решения. Реально ei,j - вектор, нередко объединяющий оценки разнородных величин, например, потери мощности, стоимость, безопасность в эксплуатации, габариты в задачах проектирования систем электропитания. Если компоненты вектора ei,j нельзя привести к одному знаменателю, например, денежному эквиваленту, то такие задачи отно сят к многокритериальным.

Отдельный разговор о метрике компонентов ei,j, не редко на практике существует нелинейность в оценке платы за неправильные решения и отдельные потери не допустимы, тогда говорят о границах приемлемости существования ошибки. Например, перегрев процессора без системы за щиты, приводящий к его разрушению, не допускается.

При распознавании образов правильное решение для всех образов в большинстве случаев оценивается одинаково. ei,i = const. Тогда целе сообразно перестроить матрицу полезности, превратив ее в матрицу рис ков от принятия не правильных решений.

В ТПР возможна также подобная процедура, но за желаемый резуль тат принимается выигрыш или минимальные потери при оптимальном решении. Вычисление величины риска для квадратной матрицы выпол няется по формуле ri, j = ei, j ei,i.

Результаты представлены в таблице 6. Квадратная матрица в этом случае имеет нулевые диагональные элементы.

Таблица Предъяв- Образ 1... Образ j... Образ n лен/ Распознан Образ 1 0...... r1,n r1,j..................

Образ i......

ri,1 ri,n ri,j..................

Образ n...... rn,1 rn, j В конечном итоге формируется некоторый алгоритм распознавания.

Его эффективность в значительной степени зависит от интегральной ве личины среднего риска при выбранной стратегии. По строкам можно оп ределить усредненный риск от принятия решения с индексом i, который не зависит от стратегии.

rµi = ri, j p j, j где p j вероятность появления образа j - го типа.

Учет стратегии заключается в ведении коэффициента pki j, который имеет смысл вероятности оценки объекта j, как i в стратегии k.

Тогда для стратегии k средний риск при принятии i - го решения rkµi = ri, j p j pki j.

j Наряду со средней величиной риска при решении i используют поня тие максимального риска. Учитывая отрицательный характер величины ri, j получим ( ).

r max i = min ri, j j Эта величина не зависит от стратегии и часто используется, как опор ная, показывающая наибольший риск от принятия решения i, его опас ность.

Средний риск принятия решения при стратегии k rk = rkµi.

i В системах с противодействием матрица потерь немного изменяется.

В качестве опорной ситуации ищется наилучшее решение противника.

Тогда матрица, например, платежей ai, j принимает вид расплаты в слу чае применения противником решения j и нами решения i.

По минимаксному критерию ищется решение, которое обеспечивает наибольший выигрыш в наихудших условиях.

По Бейесу ищется решение минимизирующее средний риск.

По Нейману – Пирсону - решение дающее максимальную величину условной вероятности правильного обнаружения при заданной величине ложной тревоги.

Таким образом работа с матрицей рисков – итоговая процедура распо знавания образов, принятия решений. Анализ ситуации, формирование описаний классов подготавливает условия корректного решения этой процедуры. Сказанное не снимает целесообразности запуска итерацион ного процесса (подготовки описания ситуаций, дополнительных измере ний и т. д.), если прогнозируемый риск выше допустимого или жела тельного.

Теория полезности изучает предпочтения в среде последствий реше ний. При этом считается то, что каждое решение порождает вектор или матрицу полезности ui, j U учитывающую интересы всех агентов (ин весторы, работники и т. п.). Считается что решение i1 предпочтительнее или эквивалентно решению i 2, если полезность ui1, j f ui 2, j для всех j.

В матрице рисков для отдельных задач учитывается и вероятность по явления придельных последствий, таких как смерть человека.

При принятии решений она должна быть ниже, чем вероятность ле тального исхода указанная в шкале профессионального риска.

Например:

3 10 7 чел/час;

Горные работы 0,6 10 7 чел/час;

Металлургическая промышленность 10 10 7 чел/час;

Транспортные работы 51 10 7 чел/час.

Работа с электричеством 3. Распознавание образов Распознавание образов является сегодня и наукой и искусством. Нау ка ограничена наличием нескольких методик, имеющих относительно небольшое использование на практике. Но практическое использование реальных систем формирует тот экспериментальный материал, который неизбежно приведет к формированию фундаментальных основ данной науки.

Эталоном системы распознавания образов до настоящего времени яв ляется система восприятия человека (если абстрагироваться от быстро действия).

Обычно целью конструирования систем является оптимизация ее функционирования над выборочным набором образов.

Проверка реальности того, что задача может быть решена: это дейст вия системы анализа образов человека.

Логично искать принципы построения системы в аналогах к биологи ческих моделей и попытаться определить, каким образом они функцио нируют так хорошо. Очевидно, что это трудно сделать по нескольким причинам. Сверхвысокая сложность человеческого мозга затрудняет по нимание принципов его функционирования.

Трудно понять общие принципы функционирования и взаимодейст вия его приблизительно 1011 нейронов и 1014 синоптических связей.

Кроме того, существует множество проблем при проведении экспери ментальных исследований.

Микроскопические исследования требуют тщательно подготовленных образцов (заморозка, срезы, окраска) для получения маленького двумер ного взгляда на большую трехмерную структуру.

Техника микропроб позволяет провести исследования внутренней электрохимии узлов, однако трудно контролировать одновременно большое количество узлов и наблюдать их взаимодействие.

Наконец, этические соображения запрещают многие важные экспери менты, которые могут быть выполнены только на людях. Большое зна чение имели эксперименты над животными, однако животные не обла дают способностями человека описывать свои впечатления.

В общей схеме распознавания образов и принятия решений (рис. 35) преобладающей по трудовым затратам является операция преобразова ния пространства наблюдений с целью получения компактного описания объектов в пространстве признаков.

Системы распознавания объектов – сложные динамические системы с элементами искусственного интеллекта. Эти системы могут включать и подготовленных специалистов, экспертов т. е. быть комплексными чело веко-машинными системами. Сегодня они в основном специализирован ны.

Рис.35. Обобщенная схема принятия решений при распознавании образов В процессе разработки таких систем формируются описания физико математических, химических, биологических, социальных моделей ха рактеризующих объекты исследования.



Pages:   || 2 | 3 | 4 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.