Рефераты

Нейрокомпьютерные системы

Были идентифицированы сотни типов нейронов, каждый со своей характерной

формой тела клетки (рис. А.2), имеющей обычно от 5 до 100 мкм в диаметре. В

настоящее время этот факт рассматривается как проявление случайности,

однако могут быть найдены различные морфологические конфигурации,

отражающие важную функциональную специализацию. Определение функций

различных типов клеток является в настоящее время предметом интенсивных

исследований и основой понимания обрабатывающих механизмов мозга.

Дендриты. Большинство входных сигналов от других нейронов попадают в

клетку через дендриты, представляющие собой густо ветвящуюся структуру,

исходящую от тела клетки. На дедритах располагаются синаптические

соединения, которые получают сигналы от других аксонов. Кроме этого,

существует огромное количество синаптичес-ких связей от аксона к аксону, от

аксона к телу клетки и от дендрита к дендриту; их функции не очень ясны, но

они слишком широко распространены, чтобы не считаться с ними.

В отличие от электрических цепей, синаптические контакты обычно не

являются физическими или электрическими соединениями. Вместо этого имеется

узкое пространство, называемое синаптической щелью, отделяющее дендрит от

передающего аксона. Специальные химические вещества, выбрасываемые аксоном

в синаптическую щель, диффундируют к дендриту. Эти химические вещества,

называемые нейротрансмиттерами, улавливаются специальными рецепторами на

дендрите и внедряются в тело клетки.

Определено более 30 видов нейротрансмиттеров. Некоторые из них

являются возбуждающими и стремятся вызывать возбуждение клетки и выработать

выходной импульс. Другие являются тормозящими и стремятся подавить такой

импульс. Тело клетки суммирует сигналы, полученные от дендритов, и если их

результирующий сигнал выше порогового значения, вырабатывается импульс,

проходящий по аксону к другим нейронам.

Аксон. Аксон может быть как коротким (0,1 мм), так и превышать длину 1

м, распространяясь в другую часть тела человека. На конце аксон имеет

множество ветвей, каждая из которых завершается синапсом, откуда сигнал

передается в другие нейроны через дендриты, а в некоторых случаях прямо в

тело клетки. Таким образом, всего один нейрон может генерировать импульс,

который возбуждает или затормаживает сотни или тысячи других нейронов,

каждый из которых, в свою очередь, через свои дендриты может воздействовать

на сотни или тысячи других нейронов. Таким образом, эта высокая степень

связанности, а не функциональная сложность самого нейрона, обеспечивает

нейрону его вычислительную мощность.

Синаптическая связь, завершающая ветвь аксона, представляет собой

маленькие утолщения, содержащие сферические структуры, называемые

синаптическими пузырьками, каждый из которых содержит большое число

нейротрансмиттерных молекул. Когда нервный импульс приходит в аксон,

некоторые из этих пузырьков высвобождают свое содержимое в синаптическую

щель, тем самым инициализируя процесс взаимодействия нейронов

(рис. А.З).

Кроме распространения такого бинарного сигнала, обеспечиваемого

возбуждением первого импульса, в нейронах при слабой стимуляции могут также

распространяться электрохимические сигналы с последовательной

реакцией. Локальные по своей природе, эти сигналы быстро затухают с

удалением от места возбуждения, если не будут усилены. Природа использует

это свойство первых клеток путем создания вокруг аксонов изолирующей

оболочки из шванковских клеток. Эта оболочка, называемая миелиновой,

прерывается приблизительно через каждый миллиметр вдоль аксона узкими

разрывами, называемыми узлами, или перехватами Ранвье. Нервные импульсы,

приходящие в аксон, передаются екачкообразно от узла к узлу. Таким образом,

аксону нет нужды расходовать энергию для поддержания своего химического

градиента по всей своей длине. Только оставшиеся неизолированными перехваты

Ранвье являются объектом генерации первого импульса; для передачи сигнала

от узла к узлу более эффективными являются градуальные реакции. Кроме этого

свойства оболочки, обеспечивающего сохранение энергии, известны ее другие

свойства. Например, миелинизирован-ные нервные окончания передают сигналы

значительно быстрее немиелинизированных. Обнаружено, что некоторые болезни

приводят к ухудшению этой изоляции, что, по-видимому, является причиной

других болезней.

Мембрана клетки

В мозгу существует 2 типа связей: передача химических сигналов через

синапсы и передача электрических сигналов внутри нейрона. Великолепное

сложное действие мембраны создает способность клетки вырабатывать и

передавать оба типа этих сигналов.

Мембрана клетки имеет около 5 нм толщины и состоит из двух слоев

липидных молекул. Встроенные в мембрану различные специальные протеины

можно разделить на пять классов: насосы, каналы, рецепторы, энзимы и

структурные протеины.

Насосы активно перемещают ионы через мембрану клетки для поддержания

градиентов концентрации. Каналы пропускают ионы выборочно и управляют их

прохождением через мембрану. Некоторые каналы открываются или закрываются

распространяющимся через мембрану электрическим потенциалом, тем самым

обеспечивая быстрое и чувствительное средство изменения ионных градиентов.

Другие типы каналов управляются химически, изменяя свою проницаемость при

получении химических носителей.

Рецепторами являются протеины, которые распознают и присоединяют многие

типы молекул из окружения клетки с большой точностью. Энзимы оболочки

ускоряют разнообразные химические реакции внутри или около клеточной

мембраны. Структурные протеины соединяют клетки и помогают поддерживать

структуру самой клетки.

Внутренняя концентрация натрия в клетке в 10 раз ниже, чем в ее

окружении, а концентрация калия в 10 раз выше. Эти концентрации стремятся к

выравниванию с помощью утечки через поры в мембране клетки. Чтобы сохранить

необходимую концентрацию, протеиновые молекулы мембраны, называемые

натриевыми насосами, постоянно отсасывают натрий из клетки и подкачивают

калий в клетку. Каждый насос перемещает приблизительно две сотни ионов

натрия и около ста тридцати ионов калия в секунду. Нейрон может иметь

миллионы таких насосов, перемещающих сотни миллионов ионов калия и натрия

через мембрану клетки в каждую секунду. На концентрацию калия внутри ячейки

влияет также наличие большого числа постоянно открытых калиевых каналов,

т.е. протеиновых молекул, которые хорошо пропускают ионы калия в клетку,

но препятствуют прохождению натрия. Комбинация этих двух механизмов

отвечает за создание и поддержание динамического равновесия,

соответствующего состоянию нейрона в покое.

Градиент ионной концентрации в мембране клетки вырабатывает внутри

клетки электрический потенциал -70 мВ относительно ее окружения. Чтобы

возбудить клетку (стимулировать возникновение потенциала действия)

синаптические входы должны уменьшить этот уровень до приблизительно -50 мВ.

При этом потоки натрия и калия сразу направляются в обратную сторону; в

течение миллисекунд внутренний потенциал клетки становится +50 мВ

относительно внешнего окружения. Это изменение полярности быстро

распространится через клетку, заставляя нервный импульс

распространиться по всему аксону до его пресинаптических окончаний.

Когда импульс достигнет окончания аксона, открываются управляемые

напряжением кальциевые каналы. Это вызывает освобождение нейротран-

смиттерных молекул в синаптическую щель и процесс распространяется на

другие нейроны. После генерации потенциала действия клетка войдет в

рефракторный период на несколько миллисекунд, в течении которого она

восстановит свой первоначальный потенциал для подготовки к генерации

следующего импульса.

Рассмотрим этот процесс более детально. Первоначальное получение

нейротрансмиттерных молекул снижает внутренний потенциал клетки с -70 до

-50 мВ. При этом зависимые от потенциала натриевые каналы открываются,

позволяя натрию проникнуть в клетку. Это еще более уменьшает потенциал,

увеличивая приток натрия в клетку, и создает самоусиливающийся процесс,

который быстро распространяется в соседние области, изменяя локальный

потенциал клетки с отрицательного до положительного.

Через некоторое время после открытия натриевые каналы закрываются, а

калиевые каналы открываются. Это создает усиленный поток ионов калия из

клетки, что восстанавливает внутренний потенциал -70 мВ. Это быстрое

изменение напряжения образует потенциал действия, который быстро

распространяется по всей длине аксона подобно лавине.

Натриевые и калиевые каналы реагируют на потенциал клетки и,

следовательно, можно сказать, что они управляют напряжением. Другой тип

каналов является химически управляемым. Эти каналы открываются только

тогда, когда специальная нейротрансмиттерная молекула попадает на рецептор,

и они совсем не чувствительны к напряжению.

Такие каналы обнаруживаются в постсинаптических мембранах на дендритах

и ответственны за реакцию нейронов на воздействие различных

нейротрансмиттерных молекул. Чувствительный к ацетилхолину белок

(ацетилхолиновый рецептор) является одним из таких химических каналов.

Когда молекулы ацетилхолина выделяются в синаптическую щель, они

диффундируют к ацетилхолиновым рецепторам, входящим в постсинаптическую

мембрану. Эти рецепторы (которые также являются каналами) затем

открываются, обеспечивая свободный проход как калия, так и натрия через

мембрану. Это приводит к кратковременному локальному уменьшению

отрицательного внутреннего потенциала клетки (формируя положительный

импульс). Так как импульсы являются короткими и слабыми, то чтобы заставить

клетку выработать необходимый электрический потенциал, требуется открытие

многих таких каналов.

Ацетилхолиновые рецепторы-каналы пропускают и натрий, и калий,

вырабатывая тем самым положительные импульсы. Такие импульсы являются

возбуждающими, поскольку они способствуют появлению необходимого

потенциала. Другие химически управляемые каналы пропускают только калиевые

ионы из клетки, производя отрицательный импульс; эти импульсы являются

тормозящими, поскольку они препятствуют возбуждению клетки.

Гамма-аминомасляная кислота (ГАМК) является одним из более общих

тормозных нейротрансмиттеров. Обнаруженная почти исключительно в головном и

спинном мозге, она попадает на рецептор канала, который выборочно

пропускает ионы хлора. После входа эти ионы увеличивают отрицательный

потенциал клетки и тем самым препятствуют ее возбуждению. Дефицит ГАМК

связан с хореей Хантингтона, имеющей нейрологический синдром, вызывающий

бесконтрольное движение мускулатуры. К несчастью,

гематоэнцефалический барьер препятствует увеличению снабжения ГАМК, и

как выйти из этого положения, пока неизвестно. Вероятно, что и другие

нейрологические и умственные растройства будут наблюдаться при подобных

нарушениях в нейротрансмиттерах или других химических носителях. Уровень

возбуждеия нейрона определяется кумулятивным эффектом большого числа

возбуждающих и тормозящих входов, суммируемых телом клетки в течение

короткого временного интервала. Получение возбуждающей нейротрансмиттерной

молекулы будет увеличивать уровень возбуждения нейрона; их меньшее

количество или смесь тормозящих молекул уменьшает уровень возбуждения.

Таким образом, нейронный сигнал является импульсным или частотно-

модулируемым (ЧМ). Этот метод модуляции, широко используемый в технике

(например, ЧМ-радио), имеет значительные преимущества при наличии помех по

сравнению с другими способами. Исследования показали изумляющую сложность

биохимических процессов в мозге. Например, предполагается наличие свыше 30

вешеств, являющихся нейротрансмиттерами, и большое количество рецепторов с

различными ответными реакциями. Более того, действие определенных

нейротрансмиттерных молекул зависит от типа рецептора в постсинаптической

мембране, некоторые нейротрансмиттеры могут быть возбуждающими для одного

синапса и тормозящими для другого. Кроме того, внутри клетки существует

система «вторичного переносчика», которая включается при

получении нейротрансмиттера, что приводит к выработке большого количества

молекул циклического аденозинтрифосфата, тем самым производя значительное

усиление физиологических

реакций.

Исследователи всегда надеются найти простые образы для унификации

сложных и многообразных наблюдений. Для нейробиологических исследований

такие простые образы до сих пор не найдены. Большинство результатов

исследований подвергаются большому сомнению прежде, чем ими воспользуются.

Одним из таких результатов в изучении мозга явилось открытие

множества видов электрохимической деятельности, обнаруженных в работе

мозга; задачей является их объединение в связанную функциональную модель.

КОМПЬЮТЕРЫ И ЧЕЛОВЕЧЕСКИЙ МОЗГ

Существует подобие между мозгом и цифровым компьютером: оба оперируют

электронными сигналами, оба состоят из большого количества простых

элементов, оба выполняют функции, являющиеся, грубо говоря,

вычислительными. Тем не менее существуют и фундаментальные

отличия. По сравнению с микросекундными и даже наносекундными

интервалами вычислений современных компьютеров нервные импульсы являются

слишком медленными. Хотя каждый нейрон требует наличия миллисекундного

интервала между передаваемыми сигналами, высокая скорость вычислений мозга

обеспечивается огромным числом параллельных вычислительных блоков, причем

количество их намного превышает доступное современным ЭВМ. Диапазон

ошибок представляет другое фундаментальное отличие: ЭВМ присуща свобода от

ошибок, если входные сигналы безупречно точны и ее аппаратное и программное

обеспечение не повреждены. Мозг же часто производит лучшее угадывание и

приближение при частично незавершенных и неточных входных сигналах. Часто

он ошибается, но величина ошибки должна гарантировать наше выживание в

течение миллионов лет.

Первые цифровые вычислители часто рассматривались как «электронный

мозг». С точки зрения наших текущих знаний о сложности мозга, такое

заявление оптимистично, да и просто не соответствует истине. Эти две

системы явно различаются в каждой своей части. Они

оптимизированы для решения различных типов проблем, имеют существенные

различия в структуре и их работа оценивается различными критериями.

Некоторые говорят, что искусственные нейронные сети когда-нибудь

будут дублировать функции человеческого мозга. Прежде чем

добиться этого, необходимо понять организацию и функции мозга. Эта

задача, вероятно, не будет решена в ближайшем будущем. Надо отметить то,

что современные нейросети базируются на очень упрощенной модели,

игнорирующей большинство тех знаний, которые мы имеем о

детальном функционировании мозга. Поэтому необходимо разработать более

точную модель, которая могла бы качественнее моделировать работу мозга.

Прорыв в области искусственных нейронных сетей будет требовать развития

их теоретического фундамента. Теоретические выкладки, в свою

очередь, должны предваряться улучшением математических методов,

поскольку исследования серьезно тормозятся нащей неспособностью

иметь дело с такими системами. Успокаивает тот факт, что

современный уровень математического обеспечения был достигнут под

влиянием нескольких превосходных исследователей. В

действительности аналитические проблемы являются сверхтрудными,

так как рассматриваемые системы являются очень сложными нелинейными

динамическими системами. Возможно, для описания систем, имеющих сложность

головного мозга, необходимы совершенно новые математические

методы. Может быть и так, что разработать полностью

удовлетворяющий всем требованиям аппарат невозможно.

Несмотря на существующие проблемы, желание смоделировать

человеческий мозг не угасает, а получение зачаровывающих результатов

вдохновляет на дальнейшие усилия. Успешные модели, основанные на

предположениях о структуре мозга, разрабатываются нейроанатомами и

нейрофизиологами с целью их изучения для согласования структуры и функций

этих моделей. С другой стороны, успехи в биологической науке ведут к

модификации и тщательной разработке искуственных моделей. Аналогично

инженеры применяют искусственные модели для реализации мировых проблем и

получают положительные результаты, несмотря на отсутствие полного

взаимопонимания.

Объединение научных дисциплин для изучения проблем искусственных нейросетей

принесет эффективные результа ты, которые могут стать беспримерными в

истории науки. Биологи, анатомы, физиологи, инженеры, математики и даже

философы активно включились в процесс исследований. Проблемы являются

сложными, но цель высока: познается сама человеческая мысль.

Приложение Б Алгоритмы обучения

Искусственные нейронные сети обучаются самыми разнообразными методами.

К счастью, большинство методов обучения исходят из общих предпосылок и

имеет много идентичных характеристик. Целью данного приложения является

обзор некоторых фундаментальных алгоритмов, как с точки зрения их текущей

применимости, так и с ' точки зрения их исторической важности. После

ознакомления с этими фундаментальными алгоритмами другие, основанные на

них, алгоритмы будут достаточно легки для понимания и новые разработки

также могут быть лучше поняты и развиты.

ОБУЧЕНИЕ С УЧИТЕЛЕМ И БЕЗ УЧИТЕЛЯ

Обучающие алгоритмы могут быть классифицированы как алгоритмы обучения

с учителем и без учителя. В первом случае существует учитель, который

предъявляет входные образы сети, сравнивает результирующие выходы с

требуемыми, а затем настраивает веса сети таким образом, чтобы уменьшить

различия. Трудно представить такой обучающий механизм в биологических

системах; следовательно, хотя данный подход привел к большим успехам при

решении прикладных задач, он отвергается исследователями, полагающими, что

искусственные нейронные сети обязательно должны использовать те же

механизмы, что и человеческий мозг.

Во втором случае обучение проводится без учителя, при предъявлении

входных образов сеть самоорганизуется посредством настройки своих весов

согласно определенному алгоритму. Вследствие отсутствия указания требуемого

выхода в процессе обучения результаты непредсказуемы с точки зрения

определения возбуждающих образов для конкретных нейронов. При этом, однако,

сеть организуется в форме, отражающей существенные характеристики

обучающего набора. Например, входные образы могут быть классифицированы

согласно степени их сходства так, что образы одного класса активизируют

один и тот же выходной ней рон.

МЕТОД ОБУЧЕНИЯ ХЭББА

Работа [2] обеспечила основу для большинства алгоритмов обучения,

которые были разработаны после ей выхода. В предшествующих этой работе

трудах в обп^ виде определялось, что обучение в биологических системах

происходит посредством некоторых физических изменений в нейронах, однако

отсутствовали идеи о том, каки» образом это в действительности может иметь

место. Основываясь на физиологических и психологических исследованиях, Хэбб

в [2] интуитивно выдвинул гипотезу о том, каким образом может обучаться

набор биологических нейронов. Его теория предполагает только локальное

взаимодействие между нейронами при отсутствии глобального учителя;

следовательно, обучение является неуправляемым. Несмотря на то что его

работа не включает математического анализа, идеи, изложенные в ней,

настолько ясны и непринужденны, что получили статус универсальных

допущений. Его книга стала классической и широко изучается специалистами,

имеющими серьезный интерес в этой области.

Алгоритм обучения Хебба

По существу Хэбб предположил, что синаптическое соединение двух

нейронов усиливается, если оба эти нейрона возбуждены. Это можно

представить как усиление синапса в соответствии с корреляцией уровней

возбужденных нейронов, соединяемых данным синапсом. По этой причине

алгоритм обучения Хэбба иногда называется корреляционным алгоритмом. Идея

алгоритма выражается следующим равенством:

[pic]

где (ij(t) - сила синапса от нейрона i к нейрону j ,в момент времени t,

NETi - уровень возбуждения пресинаптического нейрона; NETj - уровень

возбуждения постсинаптического нейрона.

Концепция Хэбба отвечает на сложный вопрос, каким образом обучение

может проводиться без учителя. В методе Хэбба обучение является

исключительно локальным явлением, охватывающим только два нейрона и

соединяющий их синапс; не требуется глобальной системы обратной связи

для развития нейронных образований.

Последующее использование метода Хэбба для обучения нейронных сетей привело

к большим успехам, но наряду с этим показало ограниченность метода;

некоторые образы просто не могут использоваться для обучения этим методом.

В результате появилось большое количество расширений и нововведений,

большинство из которых в значительной степени основано на работе Хэбба.

Метод сигнального обучения Хэбба

Как мы видели, выход NET простого искусственного нейрона является

взвешенной суммой его входов. Это может быть выражено следующим

образом:

[pic]

где NETj - выход NET нейрона j; OUTi - выход нейрона i; w,. - вес связи

нейрона i с нейроном j. Можно показать, что в этом случае линейная

многослойная сеть не является более мощной, чем однословная сеть;

рассматриваемые возможности сети могут быть улучшены только введением

нелинейности в передаточную функцию нейрона. Говорят, что сеть,

использующая сигмои-дальную функцию активации и метод обучения Хэбба,

обучается по сигнальному методу Хэбба. В этом случае уравнение Хэбба

модифицируется следующим образом:

[pic]

где (ij(t) - сила синапса от нейрона i к нейрону j в момент времени t,

OUTi - выходной уровень пресинаптического нейрона равный F(NETi); OUTj

- выходной уровень постсинаптического нейрона равный F(NETj).

Метод дифференциального обучения Хэбба

Метод сигнального обучения Хэбба предполагает вычисление

свертки предыдущих изменений выходов для определения изменения весов.

Настоящий метод, называемый методом дифференциального обучения

Хэбба, использует следующее равенство:

[pic]

где (ij(t) - сила синапса от нейрона i к нейрону j в момент времени t,

OUTi(t) - выходной уровень пресинап-тического нейрона в момент времени

t, OUTj(t) - выходной уровень постсинаптического нейрона в момент

времени t.

[pic]

ВХОДНЫЕ И ВЫХОДНЫЕ ЗВЕЗДЫ

Много общих идей, используемых в искусственных нейронных сетях,

прослеживаются в работах Гроссберга; в качестве примера можно указать

конфигурации входных и выходных звезд [1], используемые во многих

сетевых парадигмах. Входная звезда, как показано на рис. Б.1, состоит

из нейрона, на который подается группа входов через синапсические

веса. Выходная звезда, показанная на рис. Б.2, является нейроном,

управляющим группой весов. Входные и выходные звезды могут быть

взаимно соединены в сети любой сложности; Гроссберг рассматривает их

как модель определенных биологических функций. Вид звезды определяет ее

название, однако звезды обычно изображаются в сети иначе.

[pic]

Обучение входной звезды

Входная звезда выполняет распознавание образов, т.е. она

обучается реагировать на определенный входной вектор Хинина какой

другой. Это обучение реализуется путем настройки весов таким образом,

чтобы они соответствовали входному вектору. Выход входной звезды

определяется как взвешенная сумма ее входов, как это описано в

предыдущих разделах. С другой точки зрения, выход можно

рассматривать как свертку входного вектора с весовым вектором, меру

сходства нормализованных векторов. Следовательно, нейрон должен

реагировать наиболее сильно на входной образ, которому был обучен.

Процесс обучения выражается следующим образом:

[pic]

где (i - вес входа хi ; хi - i-й вход; ( - нормирующий коэффициент

обучения, который имеет начальное значение 0,1 и постепенно уменьшается в

процессе обучения. После завершения обучения предъявление

входного вектора Х будет активизировать обученный входной нейрон. Это

можно рассматривать как единый обучающий цикл, если « установлен в 1,

однако в этом случае исключается способность входной звезды к обобщению.

Хорошо обученная входная звезда будет реагировать не только на

определенный единичный вектор, но также и на незначительные изменения

этого вектора. Это достигается постепенной настройкой нейронных весов

при предъявлении в процессе обучения векторов, представляющих

нормальные вариации входного вектора. Веса настраиваются таким

образом, чтобы усреднить величины обучающих векторов, и нейроны получают

способность реагировать на любой вектор этого класса.

Обучение выходной звезды

В то время как входная звезда возбуждается всякий раз при

появлении определенного входного вектора, выходная звезда имеет

дополнительную функцию; она вырабатывает требуемый возбуждающий сигнал

для других нейронов всякий раз, когда возбуждается. Для того чтобы

обучить нейрон выходной звезды, его веса настраиваются в соответствии с

требуемым целевым вектором. Алгоритм обучения может быть

представлен символически следующим образом:

[pic]

где ( представляет собой нормирующий коэффициент обучения, который в

начале приблизительно равен единице и постепенно уменьшается до нуля в

процессе обучения. Как и в случае входной звезды, веса выходной

звезды, постепенно настраиваются над множеством векторов,

представляющих собой обычные вариации идеального вектора. В этом случае

выходной сигнал нейронов представляет собой статистическую характеристику

обучающего набора и может в действительности сходиться в процессе

обучения к идеальному вектору при предъявлении только искаженных версий

вектора.

ОБУЧЕНИЕ ПЕРСЕПТРОНА

В 1957 г. Розенблатт [4] разработал модель, которая вызвала

большой интерес у исследователей. Несмотря на некоторые ограничения ее

исходной формы, она стала основой для многих современных, наиболее

сложных алгоритмов обучения с учителем. Персептрон является

настолько важным, что вся гл. 2 посвящена его описанию; однако это

описание является кратким и приводится в формате, несколько отличном от

используемого в [4]. Персептрон является двухуровневой,

нерекуррентной сетью, вид которой показан на рис. Б.З. Она использует

алгоритм обучения с учителем; другими словами, обучающая выборка

состоит из множества входных векторов, для каждого из которых указан

свой требуемый вектор цели. Компоненты входного вектора представлены

непрерывным диапазоном значений; компоненты вектора цели являются

двоичными величинами (0 или 1). После обучения сеть получает на

входе набор непрерывных входов и вырабатывает требуемый выход в виде

вектора с бинарными компонентами. Обучение осуществляется следующим

образом: 1. Рандомизируются все веса сети в малые величины. 2.

На вход сети подается входной обучающий вектор Х и вычисляется сигнал

NET от каждого нейрона, используя стандартное выражение

[pic]

Вычисляется значение пороговой функции актива ции для сигнала NET от

каждого нейрона следующим обра зом:

OUTj = 1, если NET больше чем порог (j,

OUTj = 0, в противном случае.

[pic]

Здесь (j представляет собой порог, соответствующий нейрону j (в

простейшем случае, все нейроны имеют один и тот же порог).

4. Вычисляется ошибка для каждого нейрона посредством вычитания

полученного выхода из требуемого выхода:

[pic]

5. Каждый вес модифицируется следующим образом:

[pic]

6. Повторяются шаги со второго по пятый до тех пор, пока ошибка

не станет достаточно малой.

МЕТОД ОБУЧЕНИЯ УИДРОУ—ХОФФА

Как мы видели, персептрон ограничивается бинарными выходами. Уидроу

вместе со студентом университета Хоф-фом расширили алгоритм обучения

персептрона на случай непрерывных выходов, используя сигмоидальную

функцию [5,6]. Кроме того, они разработали математическое доказательство

того, что сеть при определенных условиях будет сходиться к любой

функции, которую она может представить. Их первая модель - Адалин -

имеет один выходной нейрон, более поздняя модель - Мадалин - расширяет ее

на случай с многими выходными нейронами. Выражения, описывающие

процесс обучения Адалина, очень схожи с персептронными. Существенные

отличия имеются в четвертом шаге, где используются непрерывные сигналы NET

вместо бинарных OUT. Модифицированный шаг 4 в этом случае реализуется

следующим образом: 4. Вычислить ошибку для каждого нейрона, вычитая

сигнал NET из требуемого выхода:

[pic]

МЕТОДЫ СТАТИСТИЧЕСКОГО ОБУЧЕНИЯ

В гл. 5 детально описаны статистические методы обучения, поэтому

здесь приводится лишь обзор этих методов. Однослойные сети

несколько ограничены с точки зрения проблем, которые они могут

решать; однако в течение многих лет отсутствовали методы обучения

многослойных сетей. Статистическое обучение обеспечивает путь решения

этих проблем. По аналогии обучение сети статистическими способами

подобно процессу отжига металла. В процессе отжига температура металла

вначале повышается, пока атомы металла не начнут перемещаться

почти свободно. Затем температура постепенно уменьшается и атомы

непрерывно стремятся к минимальной энергетической конфигурации. При

некоторой низкой температуре атомы переходят на низший энергетический

уровень. В искуственн.ых нейронных сетях полная величина энергии

сети определяется как функция определенного множества сетевых

переменных. Искусственная переменная температуры инициируется в большую

величину, тем самым позволяя сетевым переменным претерпевать большие

случайные изменения. Изменения, приводящие к уменьшению полной энергии

сети, сохраняются; изменения, приводящие к увеличению энергии,

сохраняются в соответствии с вероятностной функцией. Искусственная

температура постепенно уменьшается с течением времени и сеть

конвергирует в состояние минимума полной энергии. Существует много

вариаций на тему статистического обучения. Например, глобальная энергия

может быть определена как средняя квадратичная ошибка между полученным и

желаемым выходным вектором из обучаемого множества, а переменными могут

быть веса сети. В этом случае сеть может быть обучена, начиная с

высокой искусственной температуры, путем выполнения следующих шагов:

1. Подать обучающий вектор на вход сети и вычислить выход согласно

соответствующим сетевым правилам.

2. Вычислить значение средней квадратичной ошибки между желаемым и

полученным выходными векторами.

3. Изменить сетевые веса случайным образом, затем вычислить новый

выход и результирующую ошибку. Если ошибка уменьшилась, оставить

измененный вес; если ошибка увеличилась, оставить измененный вес с

вероятностью, определяемой распределением Больцмана. Если

изменения весов не производится, то вернуть вес к его предыдущему

значению.

4. Повторить шаги с 1 по 3, постепенно уменьшая искусственную

температуру. Если величина случайного изменения весов

определяется в соответствии с распределением Больцмана,

сходимость к глобальному минимуму будет осуществляться только в

том случае, если температура изменяется обратно пропорционально

логарифму прошедшего времени обучения. Это может привести к

невероятной длительности процесса обучения, поэтому большое

внимание уделялось поиску более быстрых методов обучения. Выбором

размера шага в соответствии с распределением Коши может быть

достигнуто уменьшение температуры, обратно пропорциональное

обучающему времени, что существенно уменьшает время, требуемое

для сходимости. Заметим, что существует класс статистических

методов для нейронных сетей, в которых переменными сети

являются выходы нейронов, а не веса. В гл. 5 эти алгоритмы

рассматривались подробно.

САМООРГАНИЗАЦИЯ

В работе [3] описывались интересные и полезные результаты

исследований Кохонена на самоорганизующихся структурах, используемых для

задач распознавания образов. Вообще эти структуры классифицируют

образы, представленные векторными величинами, в которых каждый

компонент вектора соответствует элементу образа. Алгоритмы Кохонена

основываются на технике обучения без учителя. После обучения подача

входного вектора из данного класса будет приводить к выработке

возбуждающего уровня в каждом выходном нейроне; нейрон с максимальным

возбуждением представляет классификацию. Так как обучение проводится

без указания целевого вектора, то нет возможности определять

заранее, какой нейрон будет соответствовать данному классу входных

векторов. Тем не менее это планирование легко проводится путем

тестирования сети после обучения. Алгоритм трактует набор из п

входных весов нейрона как вектор в п-мерном пространстве. Перед

обучением каждый компонент этого вектора весов инициализируется в

случайную величину. Затем каждый вектор нормализуется в вектор с

единичной длиной в пространстве весов. Это делается делением каждого

случайного веса на квадратный корень из суммы квадратов компонент

этого весового вектора. Все входные вектора обучающего набора также

нормализуются и сеть обучается согласно следующему алгоритму:

1. Вектор Х подается на вход сети.

2. Определяются расстояния Dj (в n-мерном пространстве) между Х и

весовыми векторами (j каждого нейрона. В эвклидовом пространстве это

расстояние вычисляется по следующей формуле

[pic]

где xi - компонента i входного вектора X, (ij - вес входа i нейрона j.

3. Нейрон, который имеет весовой вектор, самый близкий к X,

объявляется победителем. Этот весовой вектор, называемый (c ,

становится основным в группе весовых векторов, которые лежат в

пределах расстояния D от (c .

3. Группа весовых векторов настраивается в соответствии со следующим

выражением:

[pic]

для всех весовых векторов в пределах расстояния D от (c

5. Повторяются шаги с 1 по 4 для каждого входного вектора.

В процессе обучения нейронной сети значения D и ос постепенно

уменьшаются. Автор [3] рекомендовал, чтобы коэффициент ( в начале

обучения устанавливался приблизительно равным 1 и уменьшался в процессе

обучения до О, в то время как D может в начале обучения равняться

максимальному расстоянию между весовыми векторами и в конце обучения

стать настолько маленьким, что будет обучаться только один нейрон.

В соответствии с существующей точкой зрения, точность классификации

будет улучшаться при дополнительном обучении. Согласно рекомендации

Кохонена, для получения хорошей статистической точности количество

обучающих циклов должно быть, по крайней мере, в 500 раз больше

количества выходных нейронов. Обучающий алгоритм настраивает

весовые векторы в окрестности возбужденного нейрона таким образом,

чтобы они были более похожими на входной вектор. Так как все векторы

нормализуются в векторы с единичной длиной, они могут рассматриваться

как точки на поверхности единичной гиперсферы. В процессе обучения

группа соседних весовых точек перемещается ближе к точке входного

вектора. Предполагается, что входные векторы фактически группируются

в классы в соответствии с их положением в векторном пространстве.

Определенный класс будет ассоциироваться с определенным нейроном,

перемещая его весовой вектор в направлении центра класса и способствуя

его возбуждению при появлении на входе любого вектора данного класса.

После обучения классификация выполняется посредством подачи на вход

сети испытуемого вектора, вычисления возбуждения для каждого нейрона с

последующим выбором нейрона с наивысшим возбуждением как индикатора

правильной классификации.

-----------------------

[pic]

Страницы: 1, 2, 3, 4, 5, 6, 7, 8


© 2010 БИБЛИОТЕКА РЕФЕРАТЫ