Рефераты

Построение систем распознавания образов

|двигателей | | | | |

|(т) | | | | |

|Дальность |11000 |20000 |4380 |6600 |

|полета (км | | | | |

Таблица № 2

|Характериcтики|Т и п ы с а м о л е т о в |

| |F - 4 |F - 105|F - |F - |Хантер |

| |E |E |15 |100 D | |

| |Фантом|Тандер-|Игл |Супер-| |

| | |чиф | |сейбр | |

|Экипаж |2 |2 |1 |1 |1 |

|(чел.) | | | | | |

|Vmax |2330 |2230 |2655 |1400 |1000 |

|(км\ч) | | | | | |

|при H =15 км| | | | | |

|Vmin (км\ч) |1470 |1400 |1470 |1220 |1150 |

|при H =0.3 | | | | | |

|(км) | | | | | |

|Потолок (м) |19000 |15000 |21000|15000 |17000 |

|Бомб.нагр. (т)|7.2 |6.4 |- |3.4 |0.9 |

|Макс.взлетн. |26 |24 |25 |18 |11 |

|масса (т) | | | | | |

|Размах крыльев|12 |11 |14 |11 |10 |

|(м) | | | | | |

|Длина самолета|18 |21 |19 |12 |13 |

|(м) | | | | | |

|Кол-во |2 |1 |2 |1 |1 |

|двигателей | | | | | |

|Тяга |5.4 |12 |10.9 |5.3 |4.5 |

|двигателей (т)| | | | | |

|Дальность |885 |760 |1100 |860 |560 |

|полета (км) | | | | | |

Если признак не может принять значений в области соответствующих

значений для других классов, то, следовательно, имеем дело не с

вероятностным, а с тем же детерминированным признаком. Это как раз

подчеркивает, почему вероятностные системы являются системами более общего

порядка.

Для того, чтобы можно было в условиях случайности говорить о

возможности распознавания, следует потребовать, чтобы вероятности

наблюдения значений признака в своем классе были как можно больше, чем в

чужих. В противном случае данный признак не позволит построить СР,

использующую описание классов на его основе. Эффективность его недостаточна

для достоверного решения и необходимо искать другие признаки, имеющие

большую разделительную способность.

Вспомним из теории вероятностей, чем характеризуется случайная

величина - законом распределения вероятностей. То есть, точно так же

законом распределения должен характеризоваться каждый вероятностный

признак.

Вспомним и то, что в качестве законов распределения вероятностей в

теории вероятностей выступают интегральная функция F(x) - интегральный

закон или плотность распределения вероятностей (ПРВ) - дифференциальный

закон f(x). При этом связь между ними:

[pic]

Вспомним, что самый распространенный в природе закон распределения -

нормальный или Гауссов - имеет ПРВ

[pic]

Если предположить, что какой-либо вероятностный признак (например,

размах крыльев, измеренный каким-либо средством измерений с ошибками)

распределен по нормальному закону, то для 3-х условных классов,

отличающихся размахами крыльев, распределения этого параметра будут

выглядеть, как показано на рис.2.1.

Из рис. 2.1 видно, что если для неизвестного самолета мы с помощью

упомянутого средства измерений определили размах крыльев Lкр с

естественной случайной ошибкой , то с определенной вероятностью это

измерение может быть отнесено к каждому из классов. Однако, легко

заметить, что если это значение лежит ближе к одному из центров рассеяния

(например, Mx1), то вероятность отнесения его к соответствующему

распределению, а значит и классу, максимальная.

f(Lкр)

Mx1 Mx2

Mx3 Lкр

Рис.2.1

Примеры вероятностных признаков распознавания:

-среднее значение мощности сигнала радиолокатора, отраженного от

самолета (причина - изрезанность круговой диаграммы рассеяния сигнала

радиолокатора самолетом и электронные и атмосферные шумы в том же

радиолокационном диапазоне);

-размер листа растения (причины - отличия в питании, освещенности,

влаги и т.п.);

-размер патологического изменения какого-либо органа человека

(причины - различные стадии заболевания при его обнаружении, различные

ракурсы и сечения наблюдений образования и т.п.) и т.д.

В. Логические признаки распознавания - это характеристики объекта

или явления, представленные в виде элементарных высказываний об

истинности (“да”, "нет” или “истина”, “ложь”).

Эти признаки, как мы понимаем, не имеют количественного выражения, то

есть являются качественными суждениями о наличии, либо об отсутствии

некоторых свойств или составляющих у объектов или явлений.

Примеры логических признаков:

-наличие ТРД на самолете ;

-боль в горле пациента ;

-кашель ;

-насморк ;

-растворимость реактива и т.д.

Здесь по каждому признаку можно сказать только то, что он есть,

либо его нет.

К логическим можно отнести также такие признаки, у которых не важна

величина, а лишь факт попадания или непопадания ее в заданный интервал.

(например, крейсерская скорость самолета больше или меньше 2000 км/ч).

Г. Структурные признаки - непроизводные (то есть, элементарные, не

производимые из других элементарных признаков) элементы (символы),

примитивы изображения объекта распознавания.

Появление структурных признаков обязано возникновению проблемы

распознавания изображений с ее специфическими особенностями и трудностями.

Примеры структурных признаков:

а)для изображения прямоугольника:

- горизонтальный отрезок прямой;

- вертикальный отрезок прямой.

б) для любого изображения на экране дисплея:

-пиксел.

Забегая далеко вперед в изложении материала, следует отметить, что

традиционно для описания изображений использовались разложения его в

ряды по ортогональным функциям (ряды Фурье, полиномы Эрмита, Лежандра,

Чебышева, разложения Карунена-Лоэва и др.).

Структурное описание в отличии от разложений:

-понятнее (физичнее) для человека, решающего задачу распознавания

объекта;

-приемлемо и для компьютерной реализации при распознавании;

-свободно от трудоемкости вычислений и потерь информации,

свойственных разложениям.

Оказывается, что оперируя ограниченным числом атомарных

(непроизводных) элементов (примитивов), можно получить описание

разнообразных объектов. То есть, для отличающихся объектов можно иметь

набор одинаковых непроизводных элементов. Но для того, чтобы описание можно

было бы выполнить, наряду с определением непроизводных элементов должны

вводиться правила комбинирования, определяющие способы построения объекта

из упомянутых непроизводных элементов. В результате два одинаковых

непроизводных элемента различных объектов могут быть соединены друг с

другом по разным правилам. Это и будет их отличать.

В целом для описания какого-либо объекта непроизводные элементы

объединяются в цепочки (предложения) по своему, характерному только для

этого объекта, набору правил.

В результате связей из непроизводных элементов (структурных

признаков) образуется объект, аналогично тому, как предложения языка

строятся путем соединения слов, в свою очередь состоящих из букв. В этом

структурные методы проявляют аналогию с синтаксисом естественного

языка. Отсюда структурные признаки носят еще название лингвистических или

синтаксических.

( Пример - код Фримена).

* * *

Таким образом, мы рассмотрели очень подробно 1-ую задачу создания

систем распознавания - определение полного перечня признаков (параметров),

характеризующих объекты или явления, для которых данная система

разрабатывается. Главные выводы:

1) Выбор, назначение признаков распознавания - эвристическая

операция, зависящая от творчества, изобретательности разработчика.

2) Состав признаков , выбираемых на этом этапе, должен быть как можно

более разносторонним и полным, независимым от того, можно или нельзя эти

признаки получить.

3) Выбор признаков должен осуществляться в группах

детерминированных, вероятностных, логических и структурных.

Л Е К Ц И Я 2.3

Формулировка задач создания систем

распознавания и методы их решения

( продолжение)

ЗАДАЧА № 2

Первоначальная классификация объектов (явлений), подлежащих

распознаванию, составление априорного алфавита классов.

Нам уже знакома на описательном уровне эта задача: необходимо выбрать

(назначить) классы объектов (явлений) распознавания. Решение ее

осуществляется наиболее часто эвристически, как и выбор признаков

распознавания, а логика ее решения следующая:

1-е - определяется, какие решения могут приниматься по результатам

распознавания либо человеком, либо автоматической системой управления

объектом (цель распознавания).

2-е - на основе определенной выше цели формулируются требования к

системе распознавания, позволяющие выбрать принцип классификации.

3-е - составляется априорный алфавит классов объектов (явлений).

Предположим по результатам некоторого метода медицинской диагностики

состояния печени человека необходимо принимать решения о методе лечения

(см.1-й пункт в рассмотренной последовательности решения задачи априорной

классификации - цель). Насколько серьезно принятие такого решения,

учитывая возможность хирургического вмешательства, я надеюсь, понятно.

Тогда, очевидно, что требованием к системе (см.2-й пункт

последовательности) - надежное (с высокой вероятностью) диагностирование

каждого заболевания печени.

Следовательно, в априорный алфавит классов (см.3-й пункт рассмотренной

последовательности) необходимо включить все возможные заболевания печени,

а их - 11. То есть, классов распознаваемых заболеваний печени,

диагностируемых некоторой гипотетической системой распознавания должно быть

11. Для более четкого понимания назовем эти классы:

1.Острый гепатит.

2.Хронический гепатит.

3.Жировая инфильтрация.

4.Цирроз.

5.Киста простая.

6.Киста паразитарная.

7.Абсцесс.

8.Опухоль.

9.Метастазы.

10.Гематома.

11.Конкременты.

Заметим, что, кроме ситуации, предложенной рассмотренной задачи,

возможны и другие, когда количество классов, по которым надежно

распознаются некоторые объекты (явления), заранее неизвестно и должно

определяться самой системой распознавания. Эта задача называется задачей

кластеризации, в которой можно отказаться уже от эвристического подхода.

Однако решение здесь достигается при выборе некоторых общих правил

кластеризации, которые задает разработчик системы.

ЗАДАЧА № 3

Разработка априорного словаря признаков распознавания.

Решая задачу №1, мы должны были найти все возможные признаки

распознавания заданных объектов или явлений. Точно также при решении задачи

№2 определился состав классов.

Теперь, располагая соответствующим перечнем и априорным алфавитом

классов, необходимо провести анализ возможностей измерения признаков или

расчета их по данным измерений, выбрать те из них, которые обеспечиваются

измерениями, а также в случае необходимости разработать предложения и

создать новые средства измерений для обеспечения требуемой эффективности

распознавания.

Таким образом, главное содержание рассматриваемой задачи построения СР

- создание словаря, обеспечиваемого реально возможными измерениями.

Однако, хороший или плохой набор признаков распознавания, получился

в результате указанных действий разработчика СР, можно понять, выполнив

испытания системы распознавания в целом и оценив эффективность

распознавания. Но системы распознавания на указанном этапе разработки еще

не существует. В то же время, как мы заметили, появилась необходимость

оценки эффективности. И рассматривая очередные задачи создания СР, мы

обнаружим, что рассматриваемая задача остается актуальной на протяжении

всех последующих этапов создания системы распознавания (описание

классов, выбор алгоритма распознавания). Только методом последовательных

приближений удается добиться выбора словаря признаков, обеспечивающего

желаемое качество решений.

Выходом из создавшегося положения является возможность создания на

данном этапе математической модели системы. Математические модели СР и

используются для реализации указанных последовательных приближений, о чем

упоминалось на описательном уровне при рассмотрении задач построения систем

распознавания.

ЗАДАЧА № 4

Описание классов априорного алфавита на языке априорного словаря

признаков.

Априорное описание классов - наиболее трудоемкая из задач в процессе

создания системы распознавания, требующая глубокого изучения свойств

объектов распознавания, а также и наиболее творческая задача.

В рамках этой задачи необходимо каждому классу поставить в

соответствие числовые параметры детерминированных и вероятностных

признаков, значения логических признаков и предложения, составленные из

структурных признаков-примитивов.

Значения этих параметров описаний можно получить из совокупности

следующих работ и действий:

-специально поставленные экспериментальные работы или --

экспериментальные наблюдения;

-результаты обработки экспериментальных данных;

-математические расчеты;

-результаты математического моделирования;

-извлечения из литературных источников.

Что же такое описание класса на языке признаков? Рассмотрим это

отдельно для детерминированных, вероятностных, логических и структурных

признаков.

Если признаки распознаваемых объектов - детерминированные, то

описанием класса может быть точка в №-мерном пространстве

детерминированных признаков из априорного словаря, сумма расстояний

которой от точек, представляющих объекты данного класса, минимальна.

Легко себе представить такой эталон, вернувшись к рассмотренным нами

таблицам ТТХ самолетов. Здесь мы имеем дело с 11-мерным пространством

признаков. Каждая координата - это одна какая-нибудь характеристика,

например “экипаж”. Если рассматривать только одну координату “экипаж”, то

точкой эталона для истребителей будет - 1, для бомбардировщиков - 4. Это

точки, суммы расстояний которых от всех истребителей и всех

бомбардировщиков, представляющих эти два класса, минимальны.

Точно также это можно сделать по всем 11 координатам (т.е.

“потолок”, “размах крыльев”, ”бомбовая нагрузка “ и т.д.), в результате

чего будем уже иметь дело с точками эталонов в 11-мерном пространстве.

Если признаки распознавания - логические, то для описания каждого

класса необходимо прежде всего иметь полный набор элементарных логических

высказываний A,B,C, входящих в состав априорного словаря. Но это только

признаки. Для описания классов этого недостаточно. Еще необходимо

установить соответствие между набором значений приведенных признаков A,B,C

и классами W1, W2,...Wm.

Так для простоты понимания и без притязаний на медицинскую

достоверность возьмем такой пример: необходимо распознавать два

заболевания - обычная простуда и ангина (W1,W2), а в качестве логических

признаков выберем

А - повышенная температура (А=0 - нет, А=1 - да);

В - насморк (В=0 - нет, В=1 - да);

С - нарывы в горле (С=0 - нет, С=1 - да).

Тогда так называемое булево соотношение между классом W1 (обычное

простудное заболевание) и значениями признаками (а эти значения -

бинарные) выглядит так

[pic]

Здесь умножение, как вы знаете, соответствует логическому “И”, а

сложение - “ИЛИ”.

Точно также для второго класса заболеваний получим следующее описание

[pic]

Подробнее здесь мы эти вопросы не рассматриваем, так как логическим

системам в дальнейшем курсе уделим достаточное внимание.

Если распределение объектов распознавания, представляемых числовыми

значениями их признаков по областям соответствующего пространства

вероятностное, то для описания классов необходимо определить

характеристики этих распределений. А из теории вероятности известно, что

это

-функции ПРВ fi (x1,x2,....,xn), где x1.....xn - вероятностные

признаки, I - номер класса;

-P(Wi) - априорная вероятность того, что объект, случайно выбранный

из общей совокупности, окажется принадлежащим к классу Wi.

Как получить ПРВ классов системы распознавания? В распоряжении

разработчика СР - три способа:

-экспериментальное определение по статистическим данным;

-теоретический вывод;

-моделирование.

То же касается априорной вероятности класса P(Wi).

Если признаки распознавания - структурные, то описанием каж-дого

класса должен быть набор предложений (цепочек из непроизводных элементов с

правилами соединения). Каждое из предложений класса - характеристика

структурных особенностей объектов этого класса. Пример - код Фримена.

ЗАДАЧА № 5

Выбор алгоритма классификации, обеспечивающего отнесение

распознаваемого объекта или явления к соответствующему классу.

Непосредственное решение задачи распознавания на основе

использования словаря признаков и алфавита классов объектов или явлений

фактически заключается в разбиении пространства значений признаков

распознавания на области D1,D2,...,Dn, соответствующие классам

W1,W2,...,Wn (вспоминаем определение “образа”).

Указанное разбиение должно быть выполнено таким образом, чтобы

обеспечивались минимальные значения ошибок отнесения классифицируемых

объектов или явлений к “чужим” классам.

Результатом такой операции является отнесение объекта, имеющего набор

признаков X1,X2,....,Xn (точка в n-мерном пространстве), к классу Wi, если

указанная точка лежит в соответствующей классу области признаков - Di.

Разбиение пространства признаков можно представлять как построение

разделяющих функций fi(x1,x2,....,xn) между множествами (областями)

признаков Di, принадлежащим разным классам.

Упомянутые функции должны обладать следующим свойством:

-если объект, имеющий вектор признаков [pic] фактически относится к

классу [pic], то значение разделяющей функции

[pic]

должно быть большим, чем значение ее для класса [pic]- [pic] (здесь

индекс q - означает номер класса, к которому принадлежит вектор признаков).

Отсюда легко определить выражение решающей границы между областями

Di, соответствующим классам Wi:

[pic]

Для двух распознаваемых классов разбиение двумерного пространства

выглядит так (рис 2.2). Физически распознавание основывается на сравнении

значений той или иной меры близости распознаваемого объекта с каждым

классом. При этом если значение выбранной меры близости (сходства) L

данного объекта w с каким-либо классом Wg достигает экстремума относительно

значений ее по другим классам, то есть

[pic]

то принимается решение о принадлежности этого объекта классу Wg, то есть

w[pic]Wg.

Надеюсь понятно, что если мера близости не имеет экстремума, то мы

находимся на границе, где не можем отдать предпочтение ни одному из

классов.

X1 o o o o

xx x o o o

x o o F2(X1,X2) > F1(X1,X2)

x x x o o o o

x o o o o o

x x x x x o o o o

o

F1(X1,X2)>F2(X1,X2) x o

x x x x x x x o

o

x x x x x x

x x x x x

X2

Рис.2.2

В алгоритмах распознавания, использующих детерминированные признаки

в качестве меры близости, используется среднеквадратическое расстояние

между данным объектом w и совокупностью объектов (w1,w2,....,wn),

представляющих (описывающих) каждый класс. Так для сравнения с классом Wg

это выглядит так

[pic]

где kg - количество объектов, представляющих Wg-й класс.

При этом в качестве методов измерений расстояния между объектами

d(w,wg) могут использоваться любые методы (творческий процесс здесь не

ограничивается).

Так, если сравнивать непосредственно координаты (признаки), то

[pic]

где N - размерность признакового пространства.

Если сравнивать угловые отклонения, то рассматривая вектора,

составляющими которых являются признаки распознаваемого объекта w и класса

wg, будем иметь:

[pic]

где ||Xw|| и ||Xwg|| - нормы соответствующих векторов.

В алгоритме распознавания, использующем детерминированные признаки

можно учитывать и их веса Vj (устанавливать степень доверия или

важности). Тогда рассмотренное среднеквадратическое расстояние принимает

следующий вид:

[pic]

В алгоритмах распознавания, использующих вероятностные признаки, в

качестве меры близости используется риск, связанный с решением о

принадлежности объекта к классу Wi, где i - номер класса. (i=1,2,..,m.).

Описания классов, как мы недавно рассмотрели

[pic]

В рассматриваемом случае к исходным данным для расчета меры близости

относится платежная матрица вида:

[pic]

Здесь на главной диагонали - потери при правильных решениях. Обычно

принимают Сii=0 или Cii R2

Вывод:

При заданном признаковом пространстве и прочих равных условиях

уменьшение числа классов приводит к меньшению ошибок распознавания.

Следствие:

При увеличении числа классов для уменьшения среднего риска (через

уменьшение вероятности ошибочных решений) необходимо включать в состав

словаря признаков такие, которые имеют меньший разброс.

Действительно, для рассмотренного нами одномерного случая по

приведенному рисунку можно проследить, что вероятности ошибочных решений

снижаются, если распределения имеют меньший разброс. То есть, при этом

опять-таки уменьшается риск ошибочных решений в системе и тем самым

достигается большая эффективность, но теперь уже без уменьшения числа

классов.

Л е к ц и я 4.2

Оптимизация алфавита классов и словаря признаков

(продолжение)

4.2.1. Взаимосвязь размерности вектора признаков и

эффективности СР

Из предположений, возникающих в связи с приведенным следствием

изучения вопроса уменьшения числа классов, можно заключить, что увеличение

числа признаков должно приводить к повышению эффективности СР, так как

рано или поздно в составе вектора может появиться такой признак, разброс

которого минимален. Это качественное утверждение является достаточно

важным в построении систем распознавания и поэтому требует строгого

доказательства.

Итак, докажем, что с увеличением числа признаков вероятность

правильного распознавания неизвестных объектов также увеличивается.

Рассмотрим такое доказательство, допуская, что

- для каждого k-го признака распознавания существует некоторая

вероятность такого события Ak, когда решение о принадлежности объектов

к Wi классу принимается однозначно.

-признаки распознавания независимы между собой.

Независимость признаков означает и независимость событий Ak

(событий принятия однозначных решений о принадлежности).

Обратимся к теории вероятностей. Вероятность наступления двух

совместных или несовместных событий A1 и A2

P (A1 + A2 ) = P (A1 ) + P (A2 ) - P (A1 A2 )

Отсюда для трех событий получим

P (A1 + A2 + A3 ) = P [A1+ (A2 + A3 )] = P (A1 ) + P (A2 + A3 ) - P [A1 (A2

+ A3 )] = P (A1 ) + P (A2 ) + P (A3 ) - P (A2A3 ) - P (A1A2 + A1A3 ) =

=P (A1 ) + P (A2 ) + P (A3 ) - P (A2 A3 ) -[ P(A1A2 ) + P (A1A3 ) - P

(A1A2A3 )]

или

[pic]

Точно также для четырех событий

[pic]

Теперь образуем разность между вероятностями суммы 4-х и 3-х

событий, состоящих в рассматриваемом нами случае в принятии однозначного

решения о принадлежности по 4-м и 3-м признакам распознавания

соответственно:

[pic]

=[pic]

(Наиболее просто эту разность получить, не доводя уменьшаемое до

конечного вида

[pic]

[pic]

Теперь по индукции можно записать:

[pic]

Из приведенного выражения следует, что если не достигнута

предельная вероятность правильного распознавания, то есть:

[pic]

то при любом ( имеем

[pic]

Это является доказательством возрастания вероятности при увеличении

числа признаков.

Таким образом, последовательность

[pic]

при [pic] является монотонно возрастающей, а значит и сходящейся, так

как предел возрастания - “1”.

Для сходящейся последовательности

[pic]

а значит

[pic]

что и требовалось доказать.

Следствие:

Снижение эффективности распознавания за счет увеличения числа

классов может быть скомпенсировано увеличением размерности вектора

признаков.

Заметим, что мы вели доказательство для независимых признаков. В

случае зависимых признаков (коррелированных) надежда на повышение

эффективности основывается на наличии связей, приводящих к лучшей

разделимости классов (Это можно показать на примере двумерного пространства

признаков, которому соответствуют неперекрывающиеся эллипсы рассеяния).

4.2.2. Формализация задачи оптимального взаимосвязанного выбора

алфавита классов и словаря признаков

Решая задачу повышения эффективности СР за счет увеличения

размерности вектора признаков, мы не обращали внимания на то, что

указанное увеличение - это часто возрастание числа технических средств

измерений, каждое из которых обеспечивает определение одного или

группы признаков. Значит при этом растут расходы на построение СР. А

ресурсы часто ограничены.

Поэтому в условиях ограниченных ресурсов на создание СР только

некоторый компромисс между размерами алфавита классов и объемом рабочего

словаря признаков обеспечивает решение задачи оптимальным образом. Для

обеспечения этого компромисса требуется предварительная формализация

задачи. Начнем с общей формулировки задачи.

4.2.2.1. Формализация исходных данных

Пусть задано множество объектов или явлений

W ={w1 , w2 ,....,wl };

(например, W=самолеты, а w1 -пассажирский самолет Ту-154 , w2 -

военно-транспортный самолет АН-12, w3 - истребитель МИГ-29 и т.д.).

Введем множество из r возможных вариантов разбиения этих объектов W

на классы (варианты алфавита классов)

A ={A1, A2, ..., Ar}

(например, A1 - 2 класса - пассажирские, военные (m1 =2); A2 -5

классов - истребители, бомбардировщики, штурмовики, пассажирские, военно-

транспортные (m2 =5) )

Таким образом, с учетом возможного отказа от решений в каждом

варианте множество объектов W подразделяется на свое число классов:

в варианте A1 - на (m1 +1) классов;

в варианте A2 - на (m2 +1) классов;

...........................................................

в варианте Ar - на (mr +1) классов.

Иными словами здесь мы располагаем r алфавитами классов.

В соответствии с вариантом алфавита классов (As) исходные объекты

(явления) разбиваются на ms "решающих" классов

W = {W(1/As ), W(2/As ), W(3/As ),....... , W(ms /As )},

где естественно "1", "2",..... - номера классов; As - вариант

алфавита классов, где s=1,2,....,r.

Например:

W(1/As ) = {W1 ,W2 ,..Wk }; W(2/As ) = { Wk+1 ,Wk+2 ,..,Wl }

и т.д.

Таким образом, мы располагаем подмножествами классифицированных

объектов.

Если при этом располагаем априорным словарем признаков

_

X = { x1 , x2 , ..., xn },

и притом размеры указанных подмножеств классифицированных объектов таковы,

что соответствующие выборки признаков представительны (в каждом классе

достаточное в статистическом смысле число объектов),то тогда тем или иным

способом может быть проведено описание каждого из классов на языке этого

словаря.

В детерминированном случае это достаточно просто. Каждый класс имеет

свои эталоны со своими характеристиками как наборами параметров,

представляющих собой признаки распознавания:

Xik [W(j/As )],

__

где i = 1,n - число признаков распознавания;

__

j = 1,m - число классов;

___

k = 1,Nэj - число эталонов в j-том классе.

При статистическом подходе (вероятностные признаки и вероятностная

СР) описание это:

- априорные вероятности классов P[W(i/As )];

_

- функции условных ПРВ f{X/[W(i/As )]};

Если же объем выборок объектов по подмножествам недостаточен для

непосредственного описания классов, то эти описания, как мы знаем, могут

быть получены с помощью процедуры обучения.

Наличие описаний классов уже позволяет определять решающие правила

(решающие границы), использование которых обеспечивает минимизацию ошибок

при распознавании неизвестных объектов.

Если бы не было ограничений на величину ресурсов, ассигнуемых на

построение СР, а именно на создание измерительных средств, предназначенных

для определения признаков, то можно было бы считать, что как алфавит

классов, так и словарь признаков определены и можно приступать к

построению системы.

Реально при создании сложных систем не бывает без указанных

ограничений. При этом, когда речь идет об ограничениях, это не

обязательно финансовые ограничения. Достаточно часто в качестве таковых

могут выступать ограничения на быстродействие, память и т.п.

4.2.2.2.Выигрыш распознавания и оптимизация алфавита классов и словаря

признаков в условиях ограничений

В условиях ограничений на создание или использование средств

измерений (а равно - средств получения признаков распознавания) оказывается

естественной невозможность использования всех признаков. Поэтому для

формирования рабочего словаря признаков вводится вектор, совпадающий по

мощности с вектором признаков X:

_

V ={v1 ,v2 ,...,vn },

компоненты которого vj равны 1, если данный признак априорного словаря

используется в рабочем и 0 в противном случае. Этот вектор носит название

вектора отбора.

Располагая стоимостями измерения каждого j-го признака Сj , имеем

общие затраты на реализацию априорного словаря признаков

Сапр =[pic]

Для рабочего словаря будем иметь

Сраб =[pic]

При наличии конкретной величины ассигнованных ресурсов (C0 ) на

создание СР ограничения, о которых идет речь, формализуются в виде

следующего неравенства

С0 >=[pic]

Если в конечном итоге интересоваться вектором отбора, то возникает

следующая экстремальная задача:

в пределах выделенных ассигнований на создание СР (C0) еобходимо

найти такое пространство признаков, при котором обеспечивается

максимальное значение некоторого критерия эффективности СР.

Здесь речь идет не только о словаре признаков, но и об алфавите,

учитывая выясненную связь между ними. Действительно, если мы будем

уменьшать число признаков, то придется уменьшить и число классов.

Обращая внимание на тот факт, что без критерия эффективности такая

задача не решается, введем его.

В соответствующей литературе приводится несколько требований, которыми

следует руководствоваться при выборе показателя эффективности:

1) показатель эффективности должен характеризовать систему как

единое целое.

2) показатель эффективности должен обеспечивать возможность

получения количественной оценки с требуемой достоверностью.

3) область изменения показателя эффективности должна иметь четко

очерченные границы.

На поверхности понимания стоящей перед нами задачи в качестве

единого показателя для всей системы лежит вероятность правильного

распознавания.

Однако, такой выбор несколько расходится с пониманием цели создания СР

- выработкой управляющих решений. Поэтому и критерий должен

характеризовать выигрыш, достигаемый от принятия решения как ответных

Страницы: 1, 2, 3, 4, 5


© 2010 БИБЛИОТЕКА РЕФЕРАТЫ