авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:     | 1 | 2 || 4 |

«МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РФ МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ ЭКОНОМИКИ, СТАТИСТИКИ И ИНФОРМАТИКИ (МЭСИ) Кафедра Математического обеспечения и ...»

-- [ Страница 3 ] --

Рис. 1.15. Дефаззификация нечеткого множества по методу наибольшего максимума Метод центра максимумов Дефаззификация нечеткого множества A по методу центра максиму мов осуществляется по формуле u j u j G a G где G – множество всех элементов из E, имеющих максимальную сте пень принадлежности нечеткому множеству A, G – мощность множества G (количество элементов).

Рис. 1.16. Дефаззификация нечеткого множества по методу центра максимумов Алгоритмы нечеткого вывода Пусть x, y – входные переменные, имеющие четкие значения x0, y0.

z – выходная переменная.

Заданы функции принадлежности A1, A2, B1, B2, C1, C2 и правила:

Если x есть A1 и y есть B1, ТО z есть C1, Если x есть A2 и y есть B2, ТО z есть C Алгоритм Mamdani В системах типа Mamdani база знаний строится из нечетких высказы ваний вида « есть » с помощью связок «И», «ЕСЛИ-ТО»:

ЕСЛИ x высокий И y средний, TO z высокий Этапы нечеткого вывода реализуются следующим образом:

1. Фаззификация: находятся степени истинности для предпосылок каждого правила: A1(x0), A2(x0), B1(y0), B2(y0).

2. Вывод: находятся уровни отсечения для предпосылок каждого из правил с использованием операции минимум:

1 A1 x0 B1 y0, 2 A2 x0 B2 y0, где – операция логического минимума.

Затем находятся усеченные функции принадлежности:

C1 z 1 C1 z, C2 z 2 C2 z 3. Композиция: с использованием операции максимум (обозначается как « «) производится объединение найденных усеченных функций, что приводит к получению итогового нечеткого подмножества для переменной выхода с функцией принадлежности:

z Cz C1z C2 z 1 C1 z 2 C2 z 4. Приведение к четкости для получения z 0 производится методом центра тяжести.

Рис. 1.17. Алгоритм Mamdani Алгоритм Tsukamoto Исходные данные и база знаний такие же, как и в алгоритме Mamdani, но предполагается, что функции С1(z), С2(z) являются монотонными.

Этапы нечеткого вывода:

1. Фаззификация: находятся степени истинности для предпосылок каждого правила: A1(x0), A2(x0), B1(y0), B2(y0).

2. Вывод: Находятся уровни отсечения для предпосылок каждого из правил с использованием операции минимум:

1 A1 x0 B1 y0, 2 A2 x0 B2 y0, где – операция логического минимума.

Затем находятся четкие значения z1 и z2 из уравнений 1 C1 z, 2 C 2 z 3. Определяется четкое значение переменной вывода, как взвешенное среднее z1 и z2:

1 z1 2 z z 1 В общем случае четкое значение z 0 определяется по формуле дискрет ный вариант метода центра тяжести.

Риc. 1.18. Алгоритм Tsukamoto Алгоритм Sugeno В алгоритме Sugeno,аза знаний строится из правил в следующей форме:

Если x есть A1 и y есть B1, ТО z1 a1 x b1 y, Если x есть A2 и y есть B2, ТО z 2 a2 x b2 y Этапы нечеткого вывода:

1. Фаззификация: находятся степени истинности для предпосылок каждого правила: A1(x0), A2(x0), B1(y0), B2(y0).

2. Вывод: Находятся уровни отсечения для предпосылок каждого из правил с использованием операции минимум:

1 A1 x0 B1 y0, 2 A2 x0 B2 y Находятся индивидуальные выходы правил:

z *1 a1 x b1 y z *2 a2 x b2 y 3. Определяется четкое значение переменной вывода:

1 z *1 2 z * z 1 Рис. 1.19. Алгоритм Sugeno Алгоритм Larsen Вид базы знаний совпадает с видом базы знаний для алгоритма Mamdani.

Нечеткость: находятся степени истинности для предпосылок каждого правила: A1(x0), A2(x0), B1(y0), B2(y0).

Вывод: находятся уровни отсечения для предпосылок каждого из пра вил с использованием операции минимум:

1 A1 x0 B1 y0, 2 A2 x0 B2 y0, где – операция логического минимума.

В алгоритме Larsen нечеткое подмножество переменной вывода для каждого правила находится с использованием оператора умножения по фор муле (1.15):

C1 z 1C1 z, C2 z 2 C2 z Композиция: с использованием операции максимум (обозначается как « «) производится объединение найденных частных нечетких под множеств. Находится итоговое нечеткое подмножество для переменной выхода с функцией принадлежности:

z Cz C1z C2 z 1C1 z 2C2 z n в общем случае z i Ci z i Приведение к четкости также производится методом центра тяжести.

Рис. 1.20. Алгоритм Larsen ГЛАВА 2. ТЕХНОЛОГИЯ ПРОЕКТИРОВАНИЯ РАЦИОНАЛЬНЫХ АОС ППР ИННОВАЦИОННОГО ПРЕДПРИЯТИЯ 2.1. Формальный аппарат технологии проектирования агентно-ориентированнх систем на основе рациональных МАС Рассмотрим методологию агентно-ориентированного проектирования систем ППР, объединяющей когнитивные и вербальные методы обработки знаний с системологическими и формальными методами анализа и проекти рования сложных систем. Технология проектирования охватывает как онто логию, так и когнитивные, системологические, текстологические представ ления моделируемого пространства мира, Особенность представленной ме тодологии заключается в комплексном характере подхода, основанного на интегрировании МА сообществ и процессных компонент.

Модели коллективного поведения В настоящее время предложено множество различных моделей коллек тивного поведения агентов. Как правило, каждая из моделей концентрирует внимание на нескольких аспектах такого поведения и рассматривает пробле мы в соответствии с выбранной архитектурой (моделью) самого агента. Для знаний, отвечающих за коллективное поведение, в архитектуре агента, обыч но, выделяют специальный уровень – уровень кооперации (cooperation layer).

Рассмотрим некоторые из ныне используемых подходов к формализа ции задач, решаемых на уровне кооперации агентов. Совместное поведение различных объектов изучается в рамках многих научных дисциплин. Выде лим среди них те, которые представляются наиболее адекватными идее кол лектива интеллектуальных агентов.

Распределенный искусственный интеллект [57, 58]. Эта область искус ственного интеллекта занимается самыми общими аспектами коллек тивного поведения агентов. Здесь основу составляют результаты, полу ченные в теории распределенных систем и теории принятия решений.

Теория игр [29, 37, 60]. Аппарат теории игр часто используется для ис следования коллективов интеллектуальных агентов. Многие ситуации, возникающие в многоагентной системе, находят подходящие аналоги в теории игр. Исследуются кооперативные игры, различные стратегии ведения торгов (переговоров), игры в размещения и др., которые явля ются аналогами ряда моделей коллективного поведения агентов.

Теория коллективного поведения автоматов [61]. Она исследует пове дение больших коллективов автоматов с примитивными функциями.

Поведение автомата может рассматриваться как недетерминированное, что позволяет строить различные вероятностные модели. Допускается обучение автомата при помощи штрафов и поощрений. Автомат может быть наделен памятью, в которой он в некоторой форме запоминает предыдущие штрафы и поощрения, и может использовать эту инфор мацию для улучшения своего и коллективного поведения в соответ ствии с некоторой функцией дохода.

Биологические, экономические и социальные модели.

В последние годы координацией агентов наиболее интенсивно занима ются в сообществе исследователей распределенного искусственного интеллек та. Значительное множество работ посвящено исследованию коллективного поведения агентов в процессе совместного решения задач в рамках Belief Desire-Intention (BDI)- архитектур (см. разделы 2, 3 и 5 данной работы).

Рассмотрим кратко различные модели кооперации агентов.

Модель кооперативного решения проблем (CPS) [57]. Эта модель рас сматривает взаимодействие агентов, построенных согласно BDI-архитектуре.

В модели ментальные понятия формализуются с помощью операторов вре менной логики. Используя формализм временной логики, в этих работах вводятся определения для таких понятий, как потенциал для кооперации, групповые действия, достижимость цели агентом и т. д. Остановимся на этих понятиях подробнее.

В процессе формирования кооперативного решения в рамках рассмат риваемой CPS-модели [57] выделяют четыре этапа:

1. Распознавание. Процесс кооперативного решения начинается тогда, когда агент распознает целесообразность кооперативного действия. Напри мер, у агента имеется цель, достичь которую в изоляции (по его убеждению) он не способен, или для ее достижения он предпочитает кооперацию.

2. Формирование группы агентов. На этой стадии агент, установивший возможность совместного действия, ищет партнеров. При успешном завер шении этой стадии образуется группа агентов, имеющих совместные обяза тельства для коллективных действий.

3. Формирование совместного плана. Это та стадия, на которой агенты переговариваются с целью выработать совместный план, который по их убеждению приведет к желаемой цели.

4. Совместные действия. Здесь агенты действуют согласно вырабо танному плану, поддерживая взаимодействие согласно принятым на себя обязательствам.

Рассмотрим кратко суть перечисленных этапов. Распознавание основы вается на определении потенциала для кооперации агентов [57]:

По отношению к цели f агента i имеется потенциал для кооперации то гда и только тогда, когда (1) имеется некоторая группа g, такая, что i верит, что g может совместно достичь f, и, либо (2) i не может достичь f в изоляции, либо (3) i верит, что для каждого действия a, которое он мог бы выполнить для достижения цели f, он имеет иную цель, влекущую невыполнение дей ствия a.

Формирование группы агентов описано в работе [57]. Неформально, процедура образования группы заключается в том, что агент i (имеющий цель f), у которого имеется потенциал для кооперации с группой g, пытается реализовать в группе g состояние, в котором группа может совместно до стичь цели f, и в котором группа g обязуется выполнять действия совместно в соответствии со своими обязательствами. Формирование совместного плана начинается при условии, если предыдущая стадия была успешной. Тогда имеется группа агентов, обязующихся выполнять действия совместно. Одна ко коллективные действия не могут начаться до тех пор, пока в группе не бу дет достигнуто соглашение, что конкретно будет делать каждый агент. Для выработки такого соглашения служит стадия формирования совместного плана. Переговоры являются механизмом выработки такого соглашения.

Протокол переговоров есть распределенный алгоритм поиска соглашения. На стадии формирования совместного плана агенты группы осуществляют сов местные попытки добиться такого состояния в группе, в котором все агенты выработали бы совместный план, согласны с ним, и намереваются действо вать по нему.

Во время переговоров агенты предлагают планы, уточняют их с други ми агентами, модифицируют предложенные планы и т. п. до тех пор, пока все агенты не согласятся с единым планом. Один из примеров формирования совместного решения приводится далее в следующем разделе.

При успешности завершении предыдущей стадии начинается стадия совместных действий. В начальном состоянии стадии совместных действий в группе имеется общий план, и группа имеет намерение продолжать совмест ные действия. При нормальном ходе этого процесса действия выполняются согласно принятому плану вплоть до его завершения. Однако в некоторых ситуациях совместные действия могут прерываться. Например, в процессе совместных действий некий агент i может прийти к убеждению, что совмест ная цель f больше не является его целью. В этом случае его совместные обя зательства диктуют ему условия, при которых он может отказаться от сов местных обязательств, сообщить об этом группе и прекратить совместные действия, если это допустимо.

Статические модели различаются с точки зрения учитываемых в них целевых функций. При этом речь идет об итоговых для каждого периода (де када, месяц, квартал, год ) величинах или их производных: издержках, прибы ли, рентабельности, срока амортизации. Согласно этому модели и методы дифференцируются на: расчеты по составлению затрат (сравнительный учет затрат);

(сравнительный учет затрат);

(сравнительный учет рентабельности);

статические амортизационные расчеты.

Рассмотрим эти экономические понятия подробнее.

Сравнительный учет затрат включает: расходы на персонал (зарплата, социальные выплаты, материальная помощь и.т.д.);

расходы на сырье и мате риалы;

амортизационные отчисления;

проценты;

налоги;

cборы, взносы;

за траты на услуги третьих лиц.

ИЗМЕНЧИВАЯ ДЕЙСТВИТЕЛЬНОСТЬ ВИРТУАЛЬНЫЕ РЕАЛЬНЫЕ МИРЫ МИРЫ ОТРАЖЕНИЕ И ОТСЕЧЕНИЕ МОДЕЛЬНОЕ ПРОСТРАНСТВО МИРА (МПМ) КОГНИТИВНОЕ ФОРМАЛЬНОЕ ЭМПИРИЧЕСКИЙ ВЕРБАЛЬНОЕ ПРОСТРАНСТВО ПРОСТРАНСТВО ПОРТРЕТ МПМ ОПИСАНИЕ МПМ ЭКСПЕРТОВ МПМ МЕТОДЫ ИЗВЛЕЧЕНИЯ ЗНАНИЙ КОМПЛЕКСИРОВАНИЕ КОНЦЕПТУАЛЬНОЕ ПРОСТРАНСТВО ДИНАМИЧЕСКИЕ СОЦИАЛЬНЫЕ ЭВОЛЮЦИОННЫЕ КОНЦЕПТОСФЕРА ОБРАЗЫ ОБРАЗЫ ОБРАЗЫ ФОРМАЛИЗАЦИЯ КОНЦЕПТУАЛЬНАЯ МОДЕЛЬ МПМ СТРУКТУРНАЯ ЛОГИЧЕСКАЯ ПРОЕКЦИЯ ПОВЕДЕНЧЕСКАЯ ПРОЕКЦИЯ ПРОЕКЦИЯ ЭВОЛЮЦИОННАЯ СОЦИАЛЬНАЯ ПРОЕКЦИЯ ПРОЕКЦИЯ ТРАНСЛЯЦИЯ КОНЦЕПТУАЛЬНОЙ МОДЕЛИ ФОРМАЛЬНАЯ МОДЕЛЬ МАИС МОДЕЛИ АГЕНТНЫХ МОДЕЛИ БАЗ ЗНАНИЙ СООБЩЕСТВ МОДЕЛИ АГЕНТОВ ТРАНСЛЯЦИЯ ФОРМАЛЬНОЙ МОДЕЛИ МАИС РЕАЛИЗАЦИОННАЯ МОДЕЛЬ МАИС ПРОГРАММНЫЕ МОДЕЛИ АРХИТЕКТУРА БАЗ МЕХАНИЗМЫ АГЕНТОВ ЗНАНИЙ РЕАЛИЗАЦИИ ПОВЕДЕНИЯ ОТЛАДКА И ТЕСТИРОВАНИЕ МАИС ДЕЙСТВУЮЩИЙ ПРОТОТИП МУЛЬТИАГЕНТНОЙ ИНТЕЛЛЕКТУАЛЬНОЙ СИСТЕМЫ Рис 2.1. Структура методологии построения АОС ППР Величины этих издержек исчисляются для каждой альтернативы инве стирования (взаимоисключающего варианта) в течение планового периода.

Объект инвестиций отличается от объекта инноваций потенциальной выгодой. Проект относительно выгоден, если связанные с ним издержки ниже затрат по сравнению другой альтернативой.

Экономическая эффективность инвестиций измеряется на основе со поставления величины инвестиций с экономическим эффектом, который получился в результате прироста. Для проведения такого сопоставления необходимы количественные показатели, характеризующие отдачу на ин вестиционные вложения.

По прогнозному финансовому плану определяются наиболее распро страненные интегральные показатели оценки инвестиционных проектов:

NPV – чистый приведенный доход НИОКР и исследования 1. Предынвестиционная стадия Технико-экономическое обоснование Подготовка контактной документации 2. Инвестиционная стадия Инженерно-техническое проектирование Строительно-монтажаные работы Предпроизводственный маркетинг Обучение персонала Эксплуатационная стадия Эксплуатация объекта NPV – чистый приведенный доход (другие используемые в литера туре названия критерия: чистый дисконтированный доход, чистая текущая стоимость, чистая дисконтированная стоимость, общий финансовый итог от реализации проекта, текущая стоимость, чистая текущая стоимость про екта, текущая приведенная стоимость);

PI – индекс прибыльности PI – индекс прибыльности (другие названия критерия: рентабель ность, норма прибыли, индекс выгодности инвестиций, показатель рента бельности инвестиций, индекс доходности);

РВР – период окупаемости с учетом дисконтирования РВР – период окупаемости с учетом дисконтирования (другие назва ния критерия: срок окупаемости, окупаемость, период окупаемости инве стиций, время окупаемости, период окупаемости проекта);

IRR – внутренняя норма доходности IRR – внутренняя норма доходности (другие названия критерия:

внутренняя норма доходности, доходность дисконтированных денежных поступлений, внутренняя норма прибыли, проверочный дисконт, внутрен няя ставка отдачи, внутренний коэффициент рентабельности, внутренняя норма окупаемости инвестиций).

Дисконтирование Еще одно важнейшее понятие, непосредственно связанное с капитало вложениями и необходимое нам, это дисконтирование (discounting). Дискон тирование – это операция расчета текущей стоимости, ценности (present value), основанная на использовании ставки дисконтирования. Эта операция необходима тогда, когда производится сравнение денежных потоков в раз ные интервалы времени. С помощью этой операции производится приведе ние всех денежных потоков к общей единице измерения. Общая единица из мерения необходима потому, что капитал в различные интервалы времени имеет различную стоимость. Предполагается, что каждый период капитал K способен приносить доход в размере rK, где r – процентная ставка. Вполне понятно, что будущая стоимость (future value) капитала должна включать в себя доход, который принесет капитал, то есть:

Vt1 Vt0 1 r Vt N Vt0 1 r N Исходя из этих равенств, производится расчет текущей стоимости PV Vt.

Теоретически можно привести все величины к любому временному этапу t:

VT Vt 1 r T t но в последующем удобнее работать именно с начальным, или нуле вым, периодом:

VT Vt0 PV 1 r T Приводя денежные потоки к одному интервалу времени, а, следователь но, и к одной единице измерения, мы получаем возможность производить над ними математические вычисления. Важно понять, что денежные потоки в раз ные периоды времени имеют разные единицы измерения, и использование ставки дисконтирования позволяет перейти к одной единице измерения.

Именно эта операция дает нам возможность складывать денежные потоки раз ных периодов. Итак, с учетом всего вышесказанного, можно записать базовое уравнение для оценки эффективности проекта. Для этого запишем чистую те кущую стоимость инвестиционного проекта (net present value), равную разни це между приведенными к начальному периоду поступлениями и расходами.

При этом к расходам следует относить затраты, связанные со всеми этапами инвестирования: затраты планирования, проектирования, все затра ты за время инвестиционного процесса, затраты, связанные с ликвидацией проекта и другие возможные затраты.

Vi N C NPV I 0 i 1 ri 1 rN 1 N i Здесь:

N – число интервалов инвестирования;

I 0 – стартовый объем инвестиций в нулевой период;

Vi – сальдо поступлений и расходов в i -периоде;

ri – ставка дисконтирования, выбранная для i -периода;

C– ликвидационная стоимость чистых активов, полученных в процессе инвестирования.

Очевидно, что проект будем эффективным, если чистая приведенная стоимость будет не меньше определенной величины, которую инвестор уста навливает из собственных соображений. Обозначим эту величину G. То есть условие эффективности в данной модели выглядит так:

NPV = G (3.5).

2.2. Обработка и формализация экспертной информации Измерение в терминах производимых операций – это приписывание объекту числа/значения по определенному правилу. Это правило устанавли вает соответствие между измеряемым свойством объекта и результатом из мерения признака.

Важно, что точность, с которой признак отражает исследуемое свой ство, зависит от процедуры измерения.

Традиционно различают четыре типа шкал измерения:

1. Номинативная, или номинальная, или шкала наименований.

2. Порядковая или ординальная шкала.

3. Интервальная или шкала равных интервалов.

4. Шкала равных отношений.

Номинативная шкала (неметрическая) – это шкала, классифицирующая по названию. Название не измеряется количественно. Оно лишь позволяет отличить один объект от другого. Это способ классификации объектов, осно ванный на распределении их по ячейкам классификации. В ее основе лежит процедура обычно не ассоциируемая с измерением. Пользуясь определенным правилом, объекты группируются по различным классам так, чтобы внутри определенного класса они были идентичны по измеряемому свойству. Каж дому классу дается наименование (обычно числовое). Затем каждому объекту присваивается соответствующее обозначение.

Простейший случай номинативной шкалы – дихотомическая шкала, со стоящая из двух ячеек. Признак, который измеряют по дихотомической шка ле, называют альтернативным.

Расклассифицировав все объекты по ячейкам классификации, мы полу чаем возможность от наименований перейти к числам, подсчитав количество наблюдений в каждой ячейке.

В случае такой шкалы учитывается только одно свойство чисел – то, что это разные символы. Остальные свойства не учитываются: операции с числами, упорядочивание. При сравнении объектов можно делать вывод о том, принадлежат ли они к одному классу, тождественны или нет по изме ренному признаку.

Таким образом, номинативная шкала позволяет нам подсчитывать ча стоты встречаемости разных наименований, или значений признака, и затем работать с этими частотами математическими методами.

Единица измерений, которой мы при этом оперируем – количество наблюдений или частота. Точнее, единица измерения – это одно наблюдение.

Такие данные могут быть обработаны с помощью метода, биномиального критерия m и углового преобразования Фишера.

Порядковая шкала – это шкала классифицирующая по принципу «больше – меньше». Если в шкале наименований было безразлично, в каком порядке расположены классифицирующие ячейки, то в порядковой шкале они образуют последовательность от ячейки «самое малое значение» к ячей ке «самое большое значение» (или наоборот). Измерение в этой шкале пред полагает приписывание объектам чисел в зависимости от степени выражен ности измеряемого свойства.

Если два и более объектов имеют одинаковую выраженность измеряе мого свойства, то объектам присваивается один и тот же средний ранг. Сле дующему объекту присваивается ранг, как если бы все предшествующие объекты различались. Это правило основано на соглашении соблюдения одинаковой суммы для связанных и несвязанных рангов. В соответствии с этим правилом сумма всех рангов для группы численностью N должна рав N ( N 1) няться вне зависимости от наличия или отсутствия связей в рангах.

Ячейки в порядковых шкалах часто называют классами («низкий», «большой» и т.п.). В порядковой шкале должно быть не менее трех классов.

В порядковой шкале мы не знаем расстояний между классами, а знаем лишь, что они образуют последовательность. От классов легко перейти к числам, просто пронумеровав классы.

Итак, единица измерения в шкале порядка – расстояние в 1 класс или ранг, при расстояние (реальное) между классами м рангами может быть раз ным (оно нам неизвестно).

Суть методов получения измерения в порядковой шкале: при сравне нии объектов друг с другом можно сказать, больше или меньше выражено свойство, но нельзя определить – на сколько больше или меньше. Таким об разом, при измерениях в ранговых шкалах из свойств чисел учитывается то, что они разные, и то, что одно число больше, чем другое.

Интервальная шкала – это шкала, классифицирующая по принципу «больше на определенное количество единиц – меньше на определенное ко личество единиц». Каждое значение признака отстоит от другого на равном расстоянии. Равным разностям между числами в этой шкале соответствуют равные разности в уровне выраженности измеренного свойства. Иначе гово ря, измерения в этой шкале предполагает возможность применения единицы измерения (метрики).

Объекту присваивается число единиц измерения, пропорциональное выраженности измеряемого свойства. Важное свойство такой шкалы – про извольность выбора нулевой точки. Ноль не соответствует полному отсут ствию свойства. Произвольность выбора нулевой точки означает, что изме рение в этой шкале не соответствует абсолютному значению измеряемого свойства. Следовательно, применяя эту шкалу, можно судить насколько больше или меньше выражено свойство при сравнении объектов, но не мо жем судить, во сколько раз больше или меньше выражено свойство.

Типичный пример: измерение температуры по шкале Цельсия. 0 – точ ка замерзания воды, но не отсутствие температуры. Если сегодня +5, а завтра – +10, нельзя сказать, что сегодня в два раза холоднее, чем завтра.

На самом деле равноинтервальными можно считать лишь шкалы в еди ницах стандартного отклонения и процентильные шкалы, и то лишь при условии, что распределение значений в стандартизирующей выборке было нормальным.

Шкала равных отношений или абсолютная шкала – это шкала, класси фицирующая объекты пропорционально степени выраженности измеряемого свойства. В шкалах отношений классы обозначаются числами, которые про порциональны друг другу. Это предполагает наличие абсолютной нулевой точки отсчета. По отношению к показателю частот можно применять все арифметические операции.

В силу абсолютности нулевой точки в этой шкале можно определять во сколько раз больше или меньше выражено то или иное свойство.

Перечисленные шкалы полезно характеризовать по принципу диффе ренцирующей способности (мощности). В этом отношении шкалы распола гаются в том порядке, в котором они приведены.

СТАТИСТИЧЕСКИЕ ГИПОТЕЗЫ Надежность связи определяется тем, насколько вероятно, что обнару женная в выборке связь будет вновь обнаружена на другой аналогичной вы борке из той же генеральной совокупности.

Статистическая гипотеза – это утверждение относительно неизвестного параметра генеральной совокупности, которое формулируется для проверки надежности связи, и которое можно проверить по известным выборочным статистикам.

Статистические гипотезы подразделяются на нулевые и альтернатив ные, направленные и ненаправленные.

Нулевая гипотеза – это гипотеза об отсутствии различий (отсутствии связи). Она обозначается как H 0 и называется нулевой потому, что содержит число 0. X 1 X 2 0, где X 1, X 2 – сопоставляемые значения признаков. Ну левая гипотеза – это то что мы пытаемся опровергнуть, если перед нами сто ит задача доказать значимость различий.

Альтернативная гипотеза – это гипотеза о значимости различий (нали чии связи). Она обозначается как H 1. Альтернативная гипотеза – это то, что мы хотим доказать. Поэтому иногда ее называют экспериментальной гипоте зой.

Бывают задачи, когда необходимо доказать как раз не значимость раз личий, то есть подтвердить нулевую гипотезу. Например, если нам надо убе диться, что разные испытуемые получили хотя и различные, но уравнове шенные по значимости задания, или что экспериментальная и контрольная выборки не различаются между собой по каким-то значимым характеристи кам. Нулевая и альтернативная гипотезы могут быть направленными и нена правленными.

Направленные гипотезы:

H 0 : X 1 не превышает X H 1 : X 1 превышает X Ненаправленные гипотезы H 0 : X 1 не отличается от X H 1 : X 1 отличается от X Например, если замечено, что в одной из групп изделий проверяемых по какому-либо признаку значения выше, чем в другой группе, то для про верки значимости этих различий необходимо сформировать направленную гипотезу.

Если же мы захотим доказать, что в группе А под влиянием каких-то экспериментальных воздействий произошли более выраженные изменения, чем в группе Б, то нам тоже надо сформулировать направленные гипотезы.

Если же мы хотим доказать, что различается форма распределения в группах А и Б, то формулируется ненаправленная гипотеза.

Проверка гипотез проводится с помощью критериев статистической оценки различий. Статистическая проверка гипотез следует Аристотелевой логике доказательства от противного.

В основе статистической проверки гипотез лежит представление о тео ретическом распределении выборочной статистики – для условия, когда в ге неральной совокупности верна нулевая гипотеза. В процессе проверки стати стической гипотезы определяется p – уровень значимости (вероятность того, что нулевая гипотеза верна) путем соотнесения выборочных статистик с тео ретическим распределением, соответствующим нулевой гипотезе.

Статистический критерий Статистический критерий – это инструмент определения статистиче ской значимости. Статистический критерий – это решающее правило, обес печивающее надежное поведение, то есть принятие истинной и отклонение ложной гипотезы с высокой вероятностью.

Статистические критерии обозначают также метод расчета определен ного числа и само это число, то есть критерии подразумевают формулу, поз воляющую соотнести эмпирическое значение выборочной статистики с тео ретическим распределением.

Когда, мы говорим, что достоверность различий определяется по кри терию, то имеем в виду, что использовали метод для расчета опреде 2 ленного числа.

По соотношению эмпирического и критического значений критериев судят о том, подтверждается или опровергается гипотеза. Например, если эмп кр, H 0 отвергается.

2 В большинстве случаев для того, чтобы признать различия значимыми, необходимо, чтобы эмпирическое значение критерия превышало критиче ское, хотя есть критерии (например, критерий знаков), в которых надо при держиваться противоположного правила.

Эти правила должны оговариваться в руководстве по использованию критерия.

В некоторых случаях расчетная формула критерия включает в себя ко личество наблюдений в исследуемой выборке n. В этом случае эмпирическое значение критерия одновременно является тестом для проверки статистиче ских гипотез. По специальной таблице определяется, какому уровню стати стической значимости различий соответствует данная эмпирическая величи на. Примером такого критерия является критерий, вычисляемый на осно * ве углового преобразования Фишера.

В большинстве случаев одно и то же эмпирическое значение критерия может оказаться значимым или незначимым в зависимости от количества наблюдений в исследуемой выборке n или от количества степеней свободы v.

Число степеней свободы – это количество возможных направлений из менчивости признака. Число степеней свободы v равно числу классов вариа ционного ряда минус число условий, при которых оно было сформирован. К числу таких условий относится объем выборки, среднее и дисперсия.

Если наблюдения расклассифицированы по классам какой-либо номи нативной шкалы и подсчитано количество наблюдений в каждой ячейке классификации, то получается частотный вариационный ряд. Единственное условие, которое соблюдается при таком формирование – объем выборки n.

Поэтому, если классификация проводится по трем классам, а число испыта ний равно 50, мы свободны только в определении количества наблюдений только в двух классах, количество наблюдений в третьем классе будет опре деляться первыми двумя. Следовательно, здесь имеем v = c – 1 = 3.

Существуют и более сложные способы подсчета степеней свободы, ко торые будут рассмотрены далее.

Зная n и/или число степеней свободы, по специальным таблицам мож но определить критическое значение критерия и сопоставить с ним эмпири ческое значение.

Выбор критерия определяется проверяемой статистической гипотезой.

Критерий включает в себя:

1. Формулу расчета эмпирического критерия по выборочным стати стикам 2. Правила для определения степеней свободы 3. Теоретические значения для данного числа степеней свободы 4. Правила соотнесения эмпирического значения критерия с теорети ческим распределением для определения вероятности того, что H 0.

Проверка гипотез с помощью статистически критериев. В общем слу чае последовательность действий для проверки статистических критериев, выглядит следующим образом:

1. Выбор критерия в зависимости от вида исходных данных и стати стической гипотезы: теоретическое распределение, формула расчета эмпири ческого значения критерия и числа степеней свободы.

2. Расчет по исходным данным (или по имеющимся статистикам) эм пирического значения критерия и числа степеней свободы 3. Применение «Таблицы критических значения критерия» позволяет определить значения p-уровня для данного числа степеней свободы Критерии делятся на параметрические и непараметрические.

Параметрические критерии включают в формулу расчета параметры распределения, то есть, чаще всего, среднее и дисперсию (t – критерий Стью дента, критерий F и др.).

Непараметрические критерии не включают в формулу расчета пара метры распределения и основаны на оперировании частотами или рангами (критерий Q Розенбаума, критерий Т. Вилкоксона и др.).

Возможности и ограничения параметрических и непараметрических критериев.

№ Параметрические критерии Непараметрические критерии 1 Позволяют прямо оценить различия в сред- Позволяют оценить лишь средние тенден них, полученные в двух выборках (t – крите- ции, например, ответить на вопрос, чаще ли рий Стьюдента) в выборке А встречаются более высокие, а в выборке Б – более низкие значения призна ка (критерии Q, U и др.) 2 Позволяют прямо определить различия в Позволяют оценить лишь различия в диапа дисперсиях (критерий Фишера) зонах вариативности признака (критерий * ) 3 Позволяют выявить тенденции изменения Позволяют выявить тенденции изменения признака при переходе от условия к условию признака при переходе от условия к условию (дисперсионный однофакторный план), но при любом распределении признака (крите лишь при условии нормального распределе- рии тенденций L и Q) ния признака 4 Позволяет оценивать взаимодействие двух Эта возможность отсутствует и более факторов и их влияние на измене ние признака (двухфакторный дисперсион ный анализ) 5 Экспериментальные данные должны отве- Экспериментальные данные могут не отве чать двум, а иногда трем, условиям: чать ни одному из этих условий:

А) значения признака измерены по интер- А) значения признаков могут быть представ вальной шкале лены в любой шкале, начиная от шкалы Б) распределение признака является нор- наименований мальным Б) распределение признака может быть лю В) в дисперсионном анализе должно соблю-бым и совпадение его с каким-либо теорети даться требование равенства дисперсий в ческим законом распределения необяза ячейке комплекса тельно и не нуждается в проверке В) требование равенства дисперсий отсут ствует 6 Математические расчеты достаточно слож- Математические расчеты по большей части ны просты и занимают мало времени (за ис ключением критериев и ) 7 Если условие 5 выполняется, параметриче- Если условия 5 не выполняются, непара ские критерии оказываются более мощными метрические критерии оказываются более мощными Выявление различий в распределении признака Распределения могут различаться по средним, дисперсиям, асиммет рии, эксцессу и по сочетанию этих признаков. Анализ реально получаемых в исследованиях распределений может позволить нам подтвердить или опро вергнуть данные теоретические положения. Если удается доказать, что рас пределения статистически достоверно различаются, это может стать основой для построения классификации задач и типологии объектов. В практических целях эмпирические распределения проверяются на нормальность, если со бираются использовать параметрические методы и критерии.

Традиционные критерии для определения расхождения или согласия распределений – это методы Пирсона и критерий Колмогорова – Смирнова. Оба эти метода требуют тщательной группировки и довольно сложных вычислений. Кроме того, возможности этих критериев в полной мере проявляются на больших выборках (n 30). Но эти методы дают хоро шие результаты при решении следующих двух задач:

3. В задачах доказательства не случайности предпочтений в выборе из нескольких альтернатив 4. В задачах, требующих обнаружения точки максимального расхож дения между двумя распределения, которая затем может использоваться для перегруппировки данных с целью применения критерия * – критерий Пирсона.

Критерий применяется в двух целях:

1. Для сопоставления эмпирического распределения с теоретическим.

2. Для сопоставления двух или более распределений одного и того же правила.

Критерий отвечает на вопрос о том, с одинаковой ли частотой встреча ются разные значения признака в эмпирическом и теоретическом распреде лении или в двух и более эмпирических распределениях.

Преимущества метода заключается в том, что он позволяет сопостав лять распределения признаков, представляемые в любой шкале, начиная от шкалы наименований.

Допустим, наблюдатель фиксирует количество муравьев, выбравших один из двух маршрутов, которые выбирают муравьи на пути от муравейника к пище. Предположим, что в результате 70 наблюдений установлено, что муравей выбрал правый путь, и лишь 19 – левый. С помощью критерия мы можем определить, отличается ли данное распределение от равномерного распределения, при котором оба пути выбираются с одинаковой частотой.

Это пример сравнения полученного эмпирического распределения с теорети ческим.

Теперь предположим, что исследователь решает другую задачу, в кото рой совпадение распределения с равномерным его не интересует. Его инте ресует сравнение, результатов полученных в предыдущий день с сегодняш ними. В этом случае сравниваются два распределения. Причем, если в предыдущий день была дождливая погода, а сегодня она солнечная, то это можно рассматривать как сравнение по двум альтернативным признакам.

Чем больше расхождение между двумя сопоставляемыми распределе ниями, тем больше эмпирическое значение критерия.

Гипотезы зависимости от постановки задачи может быть несколько вариантов гипотез.

Первый вариант H 0 : Полученное эмпирическое распределение не отличается от теоре тического распределения.

H 1 : Полученное эмпирическое распределение отличается от теорети ческого распределения.

Второй вариант H 0 : Полученное эмпирическое распределение 1 не отличается от эм пирического распределения 2.

H 1 : Полученное эмпирическое распределение 1 отличается от эмпи рического распределения 2.

Третий вариант H 0 : Эмпирические распределения 1, 2, 3, не различаются между собой.

H 1 : Эмпирические распределения 1, 2, 3, различаются между собой Ограничения Объем выборки должен быть достаточно большой n 30. При меньшем объеме выборки критерий дает приближенные значения.

Теоретическая частота для каждой выборки не должна быть меньше 5:

f 5. Это означает, что если число разрядов задано заранее и не может быть изменено, то мы не можем применять критерий, не накопив достаточного числа измерений. Например, если мы хотим проверить, что частота звонков в справочную неравномерно распределяется по дням недели, то нам потребу ется 7*5 = 35 обращений. Таким образом, если количество разрядов k, то ми нимальное число наблюдений должно быть: nmin k * 5.

Выбранные разряды должны исчерпывать все распределение, то есть охватывать весь диапазон вариативности признака. При этом группировка по разрядам должна быть одинаковой для всех сопоставляемых распределениях.

Необходимо вносить поправку на непрерывность при сопоставлении признаков, имеющих всего два значения. При внесении поправки значение критерия уменьшается.

Разряды должны быть непересекающимися.

- критерий Колмогорова – Смирнова Назначение Критерий предназначен для сопоставления двух распределений:

Эмпирического с теоретическим, например, равномерным или нор мальным.

Двух эмпирических распределений.

Критерий позволяет найти точку, в которой сумма накопленных изме нений между двумя распределениями является наибольшей, и оценить досто верность этого расхождения.

Выявление различий в уровне исследуемого признака Рассматриваемые критерии предполагают, что сопоставляются незави симые выборки, то есть две или более выборки, состоящие из разных объек тов.

Дисперсионный анализ Дисперсионный анализ – это анализ изменчивости признака под влия нием каких-либо контролируемых переменных фактора. Этот метод часто обозначается как ANOVA (Analysis of variance), то есть анализ вариативно сти.

Задача дисперсионного анализа состоит в том, чтобы из общей вариа тивности признака вычленить вариативность троякого рода:

1. Вариативность, обусловленную действием каждой из исследуемых независимых переменных.

2. Вариативность, обусловленную взаимодействием исследуемых не зависимых переменных.

3. Случайную вариативность, обусловленную всеми другими неиз вестными переменными.

Методы анализа номинативных данных В зависимости от целей исследования и структуры исходных данных существует три группы методов, соответствующих решаемой задачи:

1. Анализ классификаций 2. Анализ таблиц сопряженности 3. Анализ последовательностей (серий) Эти методы могут быть сведены к трем типам случаев:

1. Сравнение наблюдаемого (эмпирического) распределения частот с ожидаемым (теоретическим) распределением.

2. Сравнение 2 или более наблюдаемых распределений частот 3. Сравнение наблюдаемого распределения событий X среди событий Y (серий X, Y) со случайным распределением.

МНОГОМЕРНОЕ ШКАЛИРОВАНИЕ Основная цель многомерного шкалирования (МШ) – выявление струк туры исследуемого множества объектов. Под структурой понимается набор основных факторов/шкал, по которым различаются и могут быть заданы эти объекты. Главная задача МШ – реконструкция пространства, заданного не большим количеством измерений – шкал, и расположение в нем точек – сти мулов (объектов) таким образом, чтобы расстояние между ними наилучшим образом соответствовало субъективным различиям. Таким образом, шкала в МШ интерпретируется как критерий, лежащий в основе различия объектов.

Геометрическое представление МШ основано на аналогии понятию расстояние/различие в пространстве. Чем больше субъективно сходны меж ду собой два объекта, тем ближе в реконструируемом пространстве призна ков должны находиться соответствующие им точки. Исходя из такой модели, по субъективным данным о различии одного объекта от другого воспроизво дится их взаимное расположение в пространстве признаков. Эти признаки трактуются как субъективные шкалы – критерии, которыми пользуются при различении объектов. Расстояние между объектами в этом пространстве есть определенная функция от исходных оценок различия.

Общая схема МШ может быть представлена следующим образом. На основе суждений экспертов в отношении интересующих нас объектов со ставляется симметричная матрица попарных различий (или матрицы – по од ной для каждого эксперта). Допускается и использование данных о предпо чтениях, содержащих упорядочивание каждым экспертом совокупности объ ектов по степени их предпочтения. Модель МШ предполагает, что эксперт производит сравнение, пользуясь одним или несколькими признаками этих объектов.

В МШ определяется, сколько признаков – шкал необходимо и доста точно для построения координатного пространства и размещения в нем точек объектов. Если ij – это оценка экспертом различия между объектами i, j, а число признаков, которыми пользуется эксперт при сравнении – K, то задача многомерного шкалирования сводится к определению всех xik, x jk как коор динат этих объектов в пространстве K признаков. При этом предполагается, что число критериев, которыми пользуется эксперт, значительно меньше числа сравниваемых объектов. Исследователю эмпирически даны только оценки различий ij. Величины значений признаков xik, x jk непосредственно не даны, но оцениваются в результате МШ в виде матрицы:

x x 11 1K X x x P1 PK где P – количество сравниваемых объектов, K – количество шкал.

Элементы xij указанной матрицы рассматриваются как координаты объекта. Пространство определено так, что чем больше различие между объ ектами, тем дальше они расположены. Каждая шкала результирующего про странства получает интерпретацию через объекты, находящиеся на противо положных полюсах шкалы.

Исходными данными для МШ могут являться не только субъективные оценки различий, но и обычные данные типа объект – признак. Для данных типа объект – признак необходимо:

1. Определить, что подлежит шкалированию – сами объекты (строки) или признаки (столбцы).

2. Необходимо задать метрику различий – то, как будут определяться различия между парами изучаемых элементов.

МШ имеет три модификации и позволяет решать три группы задач:

1. Исходные данные – прямые оценки субъектом различий между стимулами или вычисленные расстояния между объектами, характеризую щимися совокупностью признаков. Примером второго типа данных могут являться расстояния между объектами, вычисленные по совокупности кон структоров (репертуарные решетки Келли). МШ позволяет реконструировать конфигурацию объектов/стимулов в осях существенных признаков, по кото рым эти объекты различаются экспертом.

2. Исходные данные – те же, что и в предыдущем случае субъектив ные различия между стимулами/объектами, но полученные не от одного, а от группы субъектов. Взвешенная модель индивидуальных различий получить групповое пространство объектов в осях общих для данной группы суще ственных признаков. Дополнительно к этому для каждого субъекта – инди видуальные веса признаков как меру учета соответствующих точек зрения при различении объектов.

3. Исходные данные – результаты упорядочивания каждым из группы экспертов набора объектов по степени предпочтения. Модель анализа пред почтений позволяет получить групповое пространство объектов в осях суще ственных признаков и размещенные в этом же пространстве идеальные точки для каждого эксперта.

2.3. Применение методов кластерного и сравнительного анализа в МАС ППР инновационного предприятия КЛАСТЕРНЫЙ АНАЛИЗ Кластерный анализ решает задачу построения классификации, то есть разделения исходного множества объектов на группы (классы, кластеры).

При этом предполагается, что у исследователя нет исходных допущений ни о составе классов, ни об их отличии друг от друга. Приступая к кластерному анализу, исследователь лишь располагает информацией о характеристиках (признаках) для объектов, позволяющей судить о сходстве (различиях).

Варианты кластерного анализа – это множество простых вычислитель ных процедур, используемых для кластеризации объектов. Кластеризация объектов – это группирование их так, чтобы объекты в каждой группе были более похожи друг на друга, чем на объекты из других групп. Более точно, кластерный анализ – это процедура упорядочивания объектов в сравнительно однородные группы на основе попарного сравнения этих объектов по пред варительно определенным и измеренным критериям.

Существует множество вариантов кластерного анализа, но наиболее широко используются методы, объединенные названием иерархический кла стерный анализ.

Существует ряд задач, при решении которых кластерный анализ явля ется более эффективным, чем другие многомерные методы:

Разбиение совокупности объектов на группы по измеренным призна кам с целью дальнейшей проверки причин межгрупповых различий по внеш ним критериям, например, проверка гипотез о том, проявляются ли техноло гические различия между объектами по измеренным признакам.

Применение кластерного анализа как значительно более простого и наглядного аналога факторного анализа, когда ставится только задача груп пировки признаков на основе их корреляции.

Классификация объектов на основе непосредственных различий между ними.

Несмотря на различие целей проведения кластерного анализа, можно выделить его общую последовательность как ряд относительно самостоя тельных шагов, играющих существенную роль в прикладном исследовании:

Отбор объектов для кластеризации. Объектами могут быть сами объ екты или их признаки, измеренные на выборке признаков.

Определение множества переменных, по которым будут различаться объекты кластеризации.

Определение меры различия между объектами кластеризации.

Выбор и применение метода кластеризации для создания групп сход ных объектов. Это основная проблема кластеризации. Разные методы класте ризации порождают разные группировки для одних и тех же данных.

Проверка достоверности разбиения на кластеры. Обычно проверяют устойчивость группировки – на повторной идентичной выборке объектов.

Значимость разбиения проверяют по внешним критериям – признакам, не вошедшим в анализ.

Рис. 2.2. Дерево решений для выбора метода сравнения распределений.

Многофункциональные критерии Многофункциональные критерии – это критерии, которые могут ис пользоваться по отношению к самым разнообразным данным, выборкам и задачам. Это означает, что данные могут быть представлены в любой шкале, начиная от шкалы наименований. Это означает также, что выборки могут быть как независимыми так и связанными, то есть можно сравнивать и раз ные выборки объектов, и показатели одной и той же выборки, измеренные в разных условиях Нижние границы выборки – 5 наблюдений, но возможно применение критериев к выборка с двумя объектами, хотя и с некоторыми оговорками. Верхние границы выборок важны только в биномиальном кри терии – 50 объектов.

Многофункциональные критерии позволяют решать задачи сопостав ления уровней исследуемого признака, сдвигов в значениях исследуемого признака и сравнения распределений. К многофункциональным критериям в полной мере относится критерий * Фишера (угловое преобразование Фи шера) и, с некоторыми оговорками – биномиальный критерий m. Мно гофункциональные критерии построены на сопоставлении долей, выражен ных в долях единицы или в процентах. Суть критериев в определении того, какая доля наблюдений (реакций) в данной выборке характеризуется интере сующим исследователя эффектом, а какая доля этим эффектом не характери зуется. Такими эффектом могут быть:

1. Определенное значение качественно определяемого признака – например, выражение согласия с каким-либо предложением: выбор правой дорожки из двух симметричных дорожек и др.

2. Определенный уровень количественно измеряемого признака, например, получение оценки, превосходящей проходной балл.

3. Определенное соотношение значений или уровней исследуемого признака, например более частый выбор альтернатив 1 и 2 по сравнению с альтернативами 3 и 4.

Критерий * применяется, когда имеется две выборки, биномиальный критерий – при одной выборке.

Оценка достоверности сдвига в значениях исследуемого признака В исследованиях сложных объектов часто бывает важно доказать, что в результате действий каких-либо факторов произошло достоверное изменение в измеряемых показателях. К числу таких факторов, например, может быть отнесено время. Сопоставление показателей через некоторые промежутки времени дает временной сдвиг.Сопоставление показателей, полученных од ними и теми же методами, но в разных условиях измерения, дает ситуацион ный сдвиг.Можно создать специальные экспериментальные условия, предпо ложительно влияющие на те или иные показатели, и сопоставить их значения до и после эксперимента. Если сдвиги окажутся статистически достоверны ми, это позволяет утверждать, что экспериментальные воздействия были су щественными или эффективными.

Во всех этих случаях мы говорим о сдвиге под влиянием контролируе мых или не контролируемых воздействий. Здесь возникает проблема, связан ная с наличием или отсутствием контрольной группы. Если ее нет, то сдвиг может объясняться действием самых различных причин и по мощности воз действия может значительно превосходить экспериментальный фактор. Мы никогда не сможем исключить той возможности, что изменения достигнутые, как нам кажется, в результате наших воздействий, на самом деле объясняют ся неучтенными причинами. Вот если в экспериментальной группе сдвиги окажутся достоверными, а в контрольной – недостоверными, то это, действи тельно может свидетельствовать об эффективности воздействия. При отсут ствии контрольной группы, констатируем, что сдвиг произошел, но не можем приписать его фактору воздействия.


Теперь можно построить дерево решений для выбора многофункцио нальных критериев.

Бывают случаи, когда контрольная группа отсутствует, но есть две или более экспериментальных групп, различающихся по условиям и способам воздействия на них. Сопоставление групп, различающихся по этим призна кам, позволяет уточнить специфическое действие экспериментальных или естественно действующих факторов.

В этой ситуации в выводах мы все же ограничены, если не удается про верить результаты на контрольной группе.

Наконец, существует еще один вид сдвига – структурный, связанный с разными показателями одних и тех же объектов. Мы можем сопоставлять разные показатели одних и тех же объектов, если они измерены в одних и тех же единицах, по одной и той же шкале.

В принципе под сдвигом понимается разность между первым и вторым измерением для объектов. Очень часто сначала вычисляются разности от дельно для каждой из групп, а затем проводится сопоставление двух рядов разностей, полученных в разных группах.

Приведем классификацию критериев и их применимости к различным видам сдвигов.

Виды сдвигов Объект Условие Критерий оценки сопоставления достоверности Количество Количество измерений групп 1. Временные, ситуаци- Одни и те же пока- 2 1 G –критерий знаков онные, измерительные затели, измерен- T – критерий Вилкоксона ные, у одних и тех 3 и более 1 L – критерий Пейджа же объектов в раз – критерий Фридмана ных ситуациях, в r разное время, в разных представ ляемых условиях или разными спо собами 2. Сдвиги под влиянием Одни и те же пока- 2 1 G – критерий знаков экспериментальных затели, измерен- T – критерий Вилкоксона воздействий ные, у одних и тех 3 и более 1 L – критерий Пейджа же объектов до и – критерий Фридмана после испытания: r 1) при отсутствии контрольной группы 2) при наличии кон- 2 2 Вариант 1 – сопоставление трольной группы значений «до» и «после» от дельно по экспериментальной и контрольной группе G – критерий знаков T – критерий Вилкоксона Вариант 2 – сопоставление сдвигов в двух группах Q – критерий U – критерий Манна – Уитни * – критерий Фишера 3 и более 2 Сопоставление значений от дельно по экспериментальной и контрольной группе 3. Структурные сдвиги Разные показатели 2 1 G – критерий знаков одних и тех же объ- T – критерий Вилкоксона ектов 3 и более 1 L – критерий Пейджа – критерий Фридмана r 2.4. Пропозициональные графы и система редукций Основной идеей редукционной системы является поиск доказательства того, что решение данной задачи выводится из решения совокупности ее подзадач.

Другими словами решение задачи в этой системе сводится к нахожде нию множества альтернативных совокупностей подзадач, каждая из которых дает решение задачи, затем альтернативных совокупностей подзадач этих подзадач и т.д. до тех пор, пока задача не станет разрешимой, то есть реше ние ее подзадач не станет очевидным, или пока не будет доказано, что задача не имеет решения. Очевидность решения подзадач определяется следующи ми возможностями:

1) Подзадача носит характер известного утверждения (аксиома).

2) Подзадача может быть решена в системе продукций (например, за один шаг).

3) Подзадача хотя и сложна, но ее решение известно системе на осно ве предыдущего опыта.

Пространство описаний множества подзадач представляется в виде специального направленного графа G, называемого И-ИЛИ графом, или про позициональным графом.

С каждой вершиной этого графа связывается описание определенной подзадачи. Дуги этого графа соответствуют операторам сведения задачи к подзадачам. В графе выделяется два типа вершин: конъюнктивные вершины или вершины типа И, которые вместе со своими дочерними вершинами ин терпретируются высказыванием «чтобы решить задачу, необходимо решить все ее подзадачи», и дизъюнктивные вершины или вершины типа «ИЛИ», ко торые вместе со своими дочерними вершинами интерпретируются высказы ванием «чтобы решить задачу, достаточно решить одну из ее подзадач.

Здесь S0 – первоначальная задача, S для решения которой необходимо решить S0=S1S подзадачи S1 и S2. Для решения S1 необ ходимо решить подзадачи S3 и S4. Для S1 S S1=S3S решения S2 достаточно решить S6. Для S2=S решения S4, S6 достаточно решить S5, S соответственно. Решение задач S3, S S считается известным.

S3 S S4=S В множестве вершин пропозицио S6=S нального графа выделяют подмножество S начальных вершин (задач, которые надо решить) и подмножество конечных вершин (заведомо разрешимых вершин).

С каждой вершиной графа связывается высказывание в виде булевой функции, выраженной в дизъюнктивной нормальной форме и образующейся по следующим правилам: для вершины s, имеющей дочерние вершины s,, s 1 k А) Если s – конъюнктивная вершина, то соотнесенная с ней булева функция k S Si i где S i – булевская функция, соотнесенных вершин s i Б) Если s – дизъюнктивная вершина, то соотнесенная с ней булевская функция будет:

k S Si i В) Если s – конечная вершина, то соотнесенная к ней булевская функ ции истинна, а если вершина не является конечной, но не имеет дочерних вершин, то ее булевская функция ложна.

Г) Если – начальные вершины, то с ними соотносится булев s,, s 1 m ская функция m S Si i Очевидно, что решение представляется в виде решающего дерева, яв ляющегося подграфом пропозиционального графа. Соотнесем с каждой ду гой ее стоимость. Тогда можно определить критерий оптимизации. Для этого определим стоимость решающего дерева как сумму стоимостей его дуг. Цель оптимизации – найти решающее дерево с минимальной стоимостью.

Удобно определять стоимость вершины графа как стоимость опти мального решающего графа для этой вершины. Стоимость, определенная та ким образом, соответствует трудности задачи.

Будем предполагать, что стоимость вершин можно оценить (не зная со ответственно решающих деревьев) при помощи эвристической функции h.

Эти оценки используются для управления поиском. Алгоритм начинает свою работу со стартовой вершины и, распространяя поиск на уже просмотренных вершинах на их преемников, будет постепенно наращивать дерево поиска.

Этот алгоритм будет строить дерево даже в том случае, когда граф не являет ся деревом, при этом граф будет разворачиваться в дерево за счет дублирова ния своих отдельных частей.

Для продолжения поиска выбирается наиболее перспективное дерево кандидат.

Обозначим через H(B) оценку трудности вершины B. Для самой верх ней вершины H(B) просто совпадает с h(B). С другой стороны, для оценки внутренней вершины не обязательно использовать непосредственное значе ние h, поскольку существует дополнительная информация об этой, известны ее преемники. Следовательно, можно оценить трудность внутренней ИЛИ – вершины как H ( B) min (c( B, Bi ) H ( Bi )) i где c( B, Bi) – стоимость дуги, ведущей из B в B i.

Трудность И – вершины B можно приближенно оценить как:

H ( B) (c( B, Bi ) H ( B, Bi )) i Будем называть H – оценку внутренней вершины возвращенной оцен кой.

Более практичной с точки зрения поиска является другая величина F, которую можно определить в терминах H следующим образом. Пусть B вершина предшественник вершины B в дереве поиска, причем стоимость ду ги, ведущей из B1 в B, равна c(B, B1), тогда положим:

F(B)=c(B, B1) + H(B).

Пусть B1 – родительская вершина B, а {Bi} – ее дочерние вершины, то гда в соответствии с определением F и H, имеем:

F ( B) c( B1, B) min( F ( Bi ), если B ИЛИ вершина i F ( B) c( B1, B) F ( Bi ), если B И вершина i Хотя стартовая вершина A и не имеет предшественников, будем счи тать, что стоимость ведущей в нее виртуальной дуги равна 0. Если положить h равным 0 для всех вершин И/ИЛИ дерева, то для любого найденного опти мального решающего дерева окажется, что его стоимость, то есть стоимость его дуг в точности равна F(A).

На любой стадии поиска каждый преемник ИЛИ вершины соответству ет некоторому альтернативному решающему дереву кандидату. Процесс по иска всегда принимает решение продолжать просмотр того дерева кандидата, для которого F –оценка минимальна. Рассмотрим следующий пример.

a 1 b c 1 1 d e f g i h В начале дерево поиска состоит из одной стартовой вершины – верши ны a, далее дерево растет, пока не будет найдено решающее дерево.

После распространения поиска из первоначального дерева (А) получа ется дерево (В). Вершина a – это ИЛИ вершина, поэтому мы имеем два ре шающих дерева кандидата: b, c. ПосколькуF(b) = 1 3 =F(c), для продолже ния поиска выбирается альтернатива b. Процесс будет продолжаться до тех пор, пока не произойдет одно из двух событий:

1. F – оценка вершины b станет больше, чем F –оценка ее конкурента c 2. Обнаружится, что найдено решающее дерево a 1 b c 1 d f e g 6 h h i В связи с этим, начиная просмотр дерева кандидата b, устанавливаем верхнюю границу для F(b): F(b) 3 = F(c). Сначала порождаются преемники d и e вершины c (C), после чего оценка b возрастает до 3. Так как это значе ние не превосходит верхнюю границу, рост дерева кандидата c в b продолжа ется. Вершина d является целевой вершиной, а после распространения поиска из вершины g на один шаг получаем дерево (D). В этот момент выясняется, что F(b) = 9 3, и рост дерева b прекращается. В результате процесс поиска не успевает осознать, что h – это тоже целевая вершина и что порождено ре шающее дерево. Вместо этого происходит переключение активности на кон курирующую альтернативу c. Поскольку в этот момент F(b) = 9, устанавли вается верхняя граница для F(c) равная 9. Дерево кандидат с корнем c нара щивается (с учетом установленного ограничения) до тех пор, пока не возни кает ситуация (E). Теперь процесс поиска обнаруживает, что найдено реша ющее дерево (включающее в себя целевые вершины), на чем поиск заканчи вается. Обратим внимание, что в качестве результата процесс поиска выдает наиболее дешевое из двух возможных решающих деревьев.


2.5. Разбиение задач с ненадежными знаниями Для решения сложных задач можно использовать метод разбиения их на несколько подзадач. Каждая подзадача в свою очередь разбивается на простые подзадачи, поэтому задача в целом задается иерархически. При раз биении на подзадачи возможны соединения И, ИЛИ и КОМБ.

Правило: Если X или Y, A Правило: то A с C A Если X и Y, то A с (Если X и Y не могут ИЛИ C1 выполняться одновре И менно, то:

Правило: Если X, то A с X Y С21, X Y Правило: Если Y, то A с C22) Правило1: Если A X, то A с C Правило2: Если Y, то A с C КОМБ X Y Рассмотрим случай диагностирования, простужен ли больной. Пусть доказательство 1 – кашель у больного – надежно со степенью 0.6, а доказа тельство 2 – температура 38 – надежна со степенью 0.5. Простудное состоя ние при наблюдении только одного из доказательств можно подтвердить только с надежностью 0.5 или 0.6. Но если рассмотреть все доказательства, то, естественно, нужно считать, что простуда куда более достоверна. Если выполнить операцию КОМБ, то мы должны получить, скажем, надежность 0.8. Но если температура нормальная, то при операции комбинированной связи надежность диагноза простуды уменьшится и будет равна, например, 0.45.

Таким образом, для связи И выбирается минимальное значение из не скольких выводов, для связи ИЛИ – максимальное значение, а для связи КОМБ предложены методы MYCIN, субъективный байесовский метод, а также теория Демпстера – Шафера.

Метод MYCIN В системе MYCIN (экспертная система идентификации микроорганиз мов в крови) имеют дело с ненадежностью, представленной так называемым коэффициентом уверенности CF. Этот коэффициент принимает значения в отрезке [-1, 1] (1 – заведомо истинно, -1 – заведомо ложно).

При этом C1, C 2, C 31, C 32 на рисунке будут соответственно иметь вид CF[A, X и Y], CF[A, X или Y], CF[A, X], CF[A, Y] и в общем случае назы ваться CF правила.

При выводе прежде всего получают. Если в предпосылке CF предпосылк и только одна составляющая, то CF уже полученных доказательств и есть, но при связях И, ИЛИ, CF[X, ], CF[Y, ] доказательств X, Y ( определяется в зависимости от вывода и добавляется для представления так называемого ко эффициента уверенности при некотором условии) определяется как макси мум или минимум. Таким образом, CF предпосылки задается следующими форму лами:

1. При связи И:

CF[ X и Y,] min(CF[ X,], CF[Y,]) CF предпосылк и 2. При связи ИЛИ CF[ X и Y,] max( CF[ X,], CF[Y,]) CF предпосылк и Если отрицателен, то действие в правиле вывода не выпол CF предпосылк и няется, выполняется оно только если коэффициент положителен, то есть предпосылка удовлетворяется (может быть частично).

При этом вывод достоверен с коэффициентом CF правила *CF, предпосылк и и это значение переносится на вывод A:

CF[ A,]CF правила *CF предпосылк и А именно, если равно 1, то CF вывода A данного правила CF предпосылк и равен, но если предпосылка удовлетворяется лишь частично, то CF CF правила вывода пропорционально уменьшается.

Итак, при связи КОМБ отдельно получают CF[A, X] и CF[A, Y]. В си стеме действует следующая комбинированная функция:

1 / CF [ A, X ] 1 CF [ A, Y ] CF [ A, X ] CF [ A, Y ] CF [ A, X ]CF [ A, Y ] / CF [ A, X ] 0 CF [ A, Y ] CF [ A, X ] CF [ A, Y ] / CF [ A, X ]CF [ A, Y ] 0 CF [ A, X ] CF [ A, ( X, Y )] CF [ A, Y ] CF [ A, X ] CF [ A, Y ] CF [ A, X ]CF [ A, Y ] / CF [ A, X ] 0 CF [ A, Y ] 1 / CF [ A, X ] 1 CF [ A, Y ] Коэффициент уверенности CF, полученный из трех и более независи мых доказательств, можно вывести последовательно используя указанные формулы, но при получении положительных и отрицательных CF прежде всего надо уточнить, какой знак имеют CF во втором и четвертом условии, а уже применять третье условие. Если не придерживаться этого порядка, то в зависимости от последовательности применения будут получаться различные CF. В системе EMYCIN, чтобы избежать этого недостатка, третье условие преобразовано к виду:

CF [ A, X ] CF [ A, Y ] CF [ A, ( X, Y )] / CF [ A, X ]CF [ A, Y ] CF [ A, X ] 1 min( CF [ A, X ], CF [ A, Y ] ) CF [ A, Y ] В системе MYCIN применяется вывод сверху – вниз. Коэффициенты уверенности в этой системе не имеют под собой строгого фундамента.

2.6. Адаптивные методы ППР в многоагентных системах.

Субъективный байесовский метод При этом методе связки И, ИЛИ специально не оговариваются, а каж дый элемент в предпосылке представляется минимальным или максималь ным значением байесовской вероятности. При этом выводы, которые содер жат степени надежности, и выводы в случае связи КОМБ делаются следую щим образом.

Прежде всего, из формул Байеса следуют соотношения:

P( X | A) P( A) P( A | X ) P( X ) P( X | A) P( A) P( A | X ) P( X ) откуда P( A | X ) P( X | A) P( A) P( A | X ) P( X | A ) P( A ) Здесь A – дополнение множества A. Кроме того, если X и Y взаимно не зависимы относительно A, то справедливо отношение:

P( A | X, Y ) P( X, Y | A) P( A) P( X | A) P(Y | A) P( A) P( A | X, Y ) P( X, Y | A ) P( A ) P( X | A ) P(Y | A ) P( A ) Таким образом, используя P(A), строим априорные шансы A:

P( A) P( A) O( A) P( A ) 1 P( A) и апостериорные шансы A при получении доказательства X:

P( A | X ) P( A | X ) O( A | X ) P( A | X ) 1 P( A | X ) При этом вероятность P и шансы O связаны отношением:

O P O Если определены шансы, то можно получить вероятность.

Пусть P( X | A) X P( X | A ) отношение правдоподобия при получении доказательства X, тогда по лучаем:

O( A| X ) O( A) X Аналогично, если определить отношение правдоподобия Y относи тельно доказательства Y,то получим апостериорные шансы A при выводе из независимых доказательств X и Y:

O( A | X, Y ) X Y O( A) Априорную вероятность P(A) гипотезы A (или априорные шансы O(A)) и правдоподобные отношения X, Y, приписанные правилам, задаются на основе знаний эксперта. Если одно из доказательств X или Y, либо оба под тверждаются с вероятностью 1, то можно определить апостериорные шансы и апостериорную вероятность A из приведенных формул, но если доказатель ства включают ненадежные данные, то применяют следующий приближен ный метод.

P(A) P(X) 0 Пусть известно из предыдущих выводов, что доказательство X спра ведливо с вероятностью P(X|) со значением в отрезке [0, 1]. Тогда апостери орную вероятность P(A|(X|)) гипотезы A можно задать, например, как функ цию, указанную на рисунке. То есть, если доказательство подтверждается с вероятностью, меньшей априорной вероятности P(X), то соответствующее правило ничего существенно не дает и не влияет на дальнейшие выводы, но если вероятность больше P(X), то влияние задается линейной функцией. При этом эффективное отношение правдоподобия определяется следующим обра зом:

O( A | ( X | )) P( A | ( X | )) 1 P( A) 1 P( A | ( X | )) P( A) X O( A) Для доказательства Y можно определить аналогичное эффективное от ношение правдоподобия Y. Отсюда следует, что при выводах в случае ненадежных доказательств можно руководствоваться следующими правила ми. Если есть только доказательство X, то заменяется на :

X X O( A | ( X | )) X O( A) Если одновременно существует независимое доказательство Y, то Y заменяется на :

Y O( A | ( X | ), (Y | )) X O( A) Y Это и есть субъективный байесовский метод.

Метод выводов на основе теории Демпстера – Шафера Основным недостатком для Байесовской вероятности является то, что для нее требуется соотношение P( A) P( A) 1, поэтому нельзя отделить от сутствие доверия от недоверия. И то и другое выражается через P(A).

Для представления субъективной ненадежности, которую не способна выразить байесовская вероятность, используется теория Демпстера – Шафе ра, в которой вводятся нижняя и верхняя вероятность.

Будем считать, что степень неопределенности любого утверждения A определяется с помощью субъективной вероятности P(A), как это принято в байесовском подходе. Эта вероятность принимает значения в интервале от до 1. Однако, она задается с помощью двух величин Pmin ( A), Pmax ( A). Иначе говоря, вероятность P(A) лежит в этом интервале. В этом случае понятно, что точечное значение вероятности неизвестно, P(A) наверняка не ниже Pmin ( A), вероятность наверняка не меньше, чем 1 Pma[ ( A), а разность P(A) ( A) Pmin ( A) характеризует неопределенность.

P max При таком подходе степень доверия задается с помощью Pmin ( A), недо верия – Pmax ( A), а неопределенность измеряется шириной интервала. Если интервал велик, то степень неопределенности велика и мы знаем относитель но немного. При Pmin ( A) Pmax ( A) знания абсолютно надежны, неопределен ность отсутствует, и имеем точечное значение вероятности. Более надежным является интервал, величина которого наименьшая. Предельный случай, ко гда Pmin ( A) 0, Pmax ( A) 1, что соответствует полной неопределенности.

Сила правила. Зададим способ измерения надежности правила. Пусть имеется правило AC. Обозначим условную вероятность P(C/A) как X, а ве роятность P(C / A) как Y. Пользуясь формулами теории вероятности, полу чим:

P(C / A) X P( A) ( A) P(C ) P(C / A) P( A) X P P ( A) min min P(C / A) Y P( A) 1 P max ( A) P(C ) P(C / A) P( A) Y (1 P max ( A)) Отсюда:

(C ) X Pmin ( A) (C ) 1 Y (1 Pmax ( A)) P P min max Следовательно, вероятность лежит в интервале P(C) ( X Pmin ( A),1 Y (1 Pmax ( A))).

Два числа X и Y, приписываемые каждому правилу характеризуют силу этого правила. Если оба значения малы, то правило называют слабым.

Например, при X=0.2, Y=0.3 и точечном значении P(A)=0.7 для P(C) получим интервал (0.14, 0.91) – весьма слабый результат, поскольку интервал широ кий. Однако, при X=0.8, Y=0.9 и том же значении P(A) P(C) уже заключено в интервале (0.56, 0.73).

Очень часто встречается ситуация, когда одно и то же утверждение C логически выводимо с помощью двух и более правил A C, B C и т.д.

1 Тогда возникает вопрос, как скомбинировать оценки P (C ), P (C ) для 1 min min получения итоговой оценки (C ) и P (C ), P (C ) в Pmax (C ). Или как 1 P min max max два интервала ( Pmin (C ), Pmax (C )) и ( Pmin (C ), Pmax (C )) объединить в один 1 1 2 ( Pmin (C ), Pmax (C )).

Ответ на поставленные вопросы зависит от того, получены ли C, C из 1 зависимых или независимых источников. Например, когда и утверждение A и утверждение B установлены в результате обработки двух разных цепочек правил, но в каждой цепочке проверялась истинность одного и того же утверждения E, можно утверждать, что C, C зависимы.

1 Свидетельства, полученные из зависимых источников, комбинируются по следующей схеме:

(C ) max ( Pmin (C )), (C ) min ( Pmax (C )) i i P P min max i i Ответ на то, как комбинировать независимые свидетельства дает тео рия вероятности и правило Демпстера. Для случая двух свидетельств из этого правила следует:

P(C ) P(C ) P(C ) P(C ) P(C ), P(C ) P(C ) P(C ) 1 2 1 2 1 Откуда получаем:

(C ) P (C ) P (C ) P (C ) P (C ) 1 2 1 P min min min min min (C ) 1 (1 P (C ))(1 P (C )) 1 P max max max Комбинирование правил. Формулы, по которым вычисляются границы вероятностей для сложных условий, следуют из неравенства известного из теории вероятностей:

max ( P( A )) P( A A ) P( A ) i 1 n i i i Независимое условие «или» ( A1 An C ):

( A) 1 (1 Pmin ( Ai )), ( A) 1 (1 Pmax ( Ai )) P P min max i i Зависимое условие «или»:

( A) Pmax ( Ai ) ( A) max ( Pmin ( Ai )), P P i min max i Независимое условие «и»:

( A) Pmin ( Ai ), ( A) Pmax ( Ai ) P P min max i i Зависимое условие «и»:

( A) 1 (1 Pmin ( Ai )), ( A) min ( Pmax ( Ai )) P P min max ii i Отрицание «не» («А есть не В»):

( A) 1 Pmax ( B), ( A) 1 Pmin ( B) P P min max Нечеткая логика Нечеткая логика – это разновидность непрерывной логики, в которой логические формулы могут принимать истинностные значения между 1 и 0.

В нечеткой логике достоверность представляется как истинностное значение между 0 и 1, и значения приписываемые правилам, это и есть ис тинностные значения (вероятность определяется в статистическом смысле, и в отличии от нее истинностное значение это некоторое произвольное субъек тивное значение, не имеющее никакого статистического смысла). Пусть t x и t y – истинностные значения предпосылок X и Y некоторого правила, тогда истинностное значение в случае связей И и ИЛИ определяется сле t предпоыылк и дующим образом:

1.При связи И:

min(t x, t y ) t предпосылк и 2.При связи ИЛИ:

max( t x, t y ) t предпосылк и Если в общем случае есть истинностное значение, приписанное t правила правилу, то истинность, распределенное на вывод, определяется как:

t A min(t предпосылк, t правило) t а A Определение минимума – это подход, свойственный нечеткой логике и отличающий ее от других выводов (в которых производится умножение).

Связь КОМБ не оговаривается. В качестве такой связи можно рассматривать одну из связей И или ИЛИ. В нечеткой логике рассматривается случай, когда X, Y, A и другие суть нечеткие множества.

Вероятностные логики В вероятностных логиках всем логическим формулам приписывается вероятность. Здесь вероятность вновь соответствует законам Байеса.

Рассмотрим три логических формулы в логике высказываний: A, AB, B. Представим следующие вертикальные вектора.

1 2 3 истина и ложь A 1 1 0 1 0 1 1 истина и ложь A B 1 0 1 0 истина и ложь B где (1) – мир истинности A, AB, B, (2) –мир истинности A, и лжи AB, B, (3) – мир лжи A и истинности AB, B, (4) – мир лжи A, B и истинности AB Эти три логических формулы подобраны так, что возможны только эти четыре случая (когда нет противоречий). Это так называемые возможные миры (миры с возможностью интерпретации). Все другие миры – например, A, AB истина, B ложь – это миры, содержащие противоречие.

Если выбрать один из возможных миров, то образуется традиционная двузначная логика. В вероятностной логике рассматриваются состояния, ко гда одновременно с некоторой вероятностью могут существовать несколько возможных миров. Например, пусть вероятность, с которой возможна интер претация в мире (1), равна 0.4, а вероятности интерпретации в мирах (2), (3), (4) равны соответственно 0.3, 0.2, 0.1 (сумма вероятностей возможных миров равна 1), тогда представим следующим образом вектор вероятностей воз можных миров:

0. 0. P 0. 0. И наоборот, если существует группа логических формул, каждой из ко торых приписана вероятность, то эту группу можно считать упорядоченной (непротиворечивой), только когда возможно вероятностное существование соответствующих возможных миров.

Если построить матрицу M, элементами которой служат вертикальные векторы, представляющие возможные миры, то с помощью матричной опе рации M P V можно вычислить вероятности выбора каждой логической формулы. В данном примере:

0. 1 1 0 0 0. M P 1 0 1 1 0.7 V 0. 0. 1 0 1 0 0. 0.1 А именно, эти вероятностные возможные миры имеют состояние «ис тина» с вероятностью 0.7 (A), 0.7 (AB) и 0.6 (B).

Пусть задана вероятность A p(A) и вероятность A B p( A B), то гда вероятность B p(B) должна находиться в диапазоне:

p( A B) p( A) p( B) p( A B) ГЛАВА 3. НЕЧЕТКИЙ МЕТОД ПОИСКА РЕШЕНИЯ НА ОСНОВЕ АНАЛИЗА ОТВЕТНОЙ РЕАКЦИИ АГЕНТА На первом этапе принятия решения формируется сценарий достижения цели сеанса, а также осуществляется постановка цели типовых ситуаций.

Данная задача решается только оператором [2-1, Part1-87], поэтому будем по лагать, что текущая типовая ситуация S определена.

Для назначенной типовой ситуации S путем экспертного анализа выяв ляется ряд признаков yi, i {1...M }, которые существенны для выполнения раз личных задач в данной ситуации. Признаком в типовой ситуации может яв ляться:

1. координата фазового пространства информационной среды, формируе мая на основе выходной информации измерительных устройств, 2. параметр некоторой тактической задачи в данной типовой ситуации S.

Произвольный набор значений признаков yi, i {1...M } будем называть текущей ситуацией S * или текущей информационной обстановкой в типовой ситуации S.

Для принятия решения II уровня в каждой типовой ситуации S форми руется набор значений признаков[2-1], описывающих состояние информаци онной среды в некоторый момент времени, который определяет характерную ситуацию, типичную проблему или требует сформировать ответное управля ющее воздействие. Такой набор значений признаков yi, i {1...M n }, n yin { y j | j 1, M }, описывающих характерное состояние информационной сре ды, назовем типовой субситуацией (ТС/С) S n в заданной ситуации S. Произ вольный набор значений признаков yi, i {1...M n } будем называть текущей суб n ситуацией или просто субситуацией S n* в данной типовой ситуации S.

Поставим в соответствие для рассматриваемой типовой ситуации S ряд проблем или типичных ситуаций S1 … S N, которые возникают при решении задач в типовой ситуации воздушной обстановки S. Множество S1 … S N будем называть набором типовых субситуаций в ситуации S.

При обнаружении ТС/С S n требуется установить значение параметров ответной реакции pi, i {1...K n }, которые определяют наиболее рациональный n n способ разрешения сложившейся ТС/С S n. Значения параметров pi форми руются либо на основании опроса экспертов, либо по результатам анализа оптимизационных задач для данной ТС/С. Такой набор значений параметров pin, i {1...K n } будем называть типовой реакцией Rn на сложившуюся ТС/С S n.

n Произвольный набор значений параметров pi будем называть выработанной реакцией или просто реакцией Rn на сложившуюся ТС/С S n*.

* Значения параметров ответной реакции также можно воспринимать как значения входных параметров для математической модели, которая обеспечи вает разрешение данной ТС/С.

Таким образом, принятие решения II уровня в заданной типовой ситуа ции S можно представить в виде множества типовых тактических решений TM n (S n, Rn ), n 1, N S {(S n, Rn ) | n 1, N}, где S n – множество типовых субситуаций, заданных набором значений признаков ТС/С yi, i {1...M n }, n Rn – множество типовых реакций на возникающую типовую ситуацию S n, задаваемых набором значений параметров реакции pin, i {1...K n }.

Тактическое решение TM n (S n, Rn ), n 1, N, применяемое в случае про * * * извольной субситуации S n* с выработкой ответной реакции Rn будем называть * прецедентом реализации тактического решения TM n или просто прецеден том.

Множество тактических решений, предназначенных для решения одной проблемной ситуации объединяются в тактическую задачу ТH TH {(Si, Ri ) | i : i U H, U H {1..N})}, где (Si, Ri ) – тактическое решение в тактической задаче ТH, U H – множество номеров тактических решений, решающих проблем ную ситуацию тактической задачи ТH.

Обозначим множество H выявленных тактических задач в данной типо вой ситуации S H {TH t | t 1, N H }.

Все тактические решения TM n, n 1, N можно разделить на три типа в соответствии с уровнем принятия решения:



Pages:     | 1 | 2 || 4 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.