МегаПредмет

ПОЗНАВАТЕЛЬНОЕ

Сила воли ведет к действию, а позитивные действия формируют позитивное отношение


Как определить диапазон голоса - ваш вокал


Игровые автоматы с быстрым выводом


Как цель узнает о ваших желаниях прежде, чем вы начнете действовать. Как компании прогнозируют привычки и манипулируют ими


Целительная привычка


Как самому избавиться от обидчивости


Противоречивые взгляды на качества, присущие мужчинам


Тренинг уверенности в себе


Вкуснейший "Салат из свеклы с чесноком"


Натюрморт и его изобразительные возможности


Применение, как принимать мумие? Мумие для волос, лица, при переломах, при кровотечении и т.д.


Как научиться брать на себя ответственность


Зачем нужны границы в отношениях с детьми?


Световозвращающие элементы на детской одежде


Как победить свой возраст? Восемь уникальных способов, которые помогут достичь долголетия


Как слышать голос Бога


Классификация ожирения по ИМТ (ВОЗ)


Глава 3. Завет мужчины с женщиной


Оси и плоскости тела человека


Оси и плоскости тела человека - Тело человека состоит из определенных топографических частей и участков, в которых расположены органы, мышцы, сосуды, нервы и т.д.


Отёска стен и прирубка косяков Отёска стен и прирубка косяков - Когда на доме не достаёт окон и дверей, красивое высокое крыльцо ещё только в воображении, приходится подниматься с улицы в дом по трапу.


Дифференциальные уравнения второго порядка (модель рынка с прогнозируемыми ценами) Дифференциальные уравнения второго порядка (модель рынка с прогнозируемыми ценами) - В простых моделях рынка спрос и предложение обычно полагают зависящими только от текущей цены на товар.

Вероятностная нейронная сеть.





Вероятностная нейронная сеть применяется для решения задач классификации. В отличие от задач кластеризации, где классы, на которые необходимо разбить множество данных, не заданы, в задаче классификации указано количество классов, к которому может быть отнесен каждый пример, и задано обучающее множество – для каждого обучающего набора определён класс, к которому он относится.

Вероятностная сеть для каждого входного вектора определяет вероятности, с которыми этот вектор принадлежит каждому классу.

Вероятностная сеть имеет три слоя: входной, радиальный и выходной. Радиальный нейрон – это нейрон, функцией активации которого является Гауссиан, соответствующий выражению для плотности вероятности при нормальном распределении:

(9.14)

Выражение записано для j-того нейрона. Здесь min-мерный центр функции (аналог математического ожидания), а - разброс (аналог дисперсии). Для двумерного входного вектора (x1,x2) радиальная функция активации имеет вид:

Рис. 9.5. Двумерная функция Гаусса

Входной слой, как в многослойном персептроне, имеет столько нейронов, сколько параметров имеют входные вектора.

Радиальные нейроны включаются в сеть по мере обучения по одному на каждый пример. Каждый из них имеет гауссовскую функцию с центром в этом примере. Таким образом, в вероятностной нейронной сети столько нейронов в промежуточном радиальном слое, сколько примеров существует в обучающем множестве. Каждый нейрон входного слоя соединен со всеми нейронами радиального слоя. Для каждого радиального нейрона синаптические веса связей, соединяющих с ним входные нейроны, устанавливаются равными элементам соответствующего вектора-образца.

Например: пусть j-тый представленный сети для обучения вектор-пример имеет вид: . Тогда в сеть будет добавлен один нейрон радиального слоя:

Рис. 9.6. Добавление нейрона в радиальный слой

Значения весов принимаются равными элементам обучающего примера, то есть: , . Функция активации принимает вид:

(9.15)

Выходные элементы добавляются по мере обучения сети по одному для каждого заданного класса примеров. Выходной элемент соединен лишь с радиальными элементами, относящихся к его классу, и суммирует выходы всех радиальных элементов, принадлежащих к его классу. Полученная сумма никак не обрабатывается, поэтому значения выходных сигналов получаются пропорциональны оценкам вероятности принадлежности вектора к соответствующему классу. Например, пусть добавленный ранее j-тый обучающий пример относится к классу А. Если до этого класс А уже встречался в обучающем множестве, то новый радиальный нейрон просто соединяется с ним единичной связью, и его выход будет суммироваться с другими входящими сигналами.

Рис. 9.7. Присоединение радиального нейрона

к существующему выходному.

Если же класс А встречается впервые, то в сеть будет добавлен новый выходной нейрон, и породивший его радиальный нейрон соединится с ним.

Рис.9.8. Добавление выходного нейрона

Иногда дополнительно добавляют еще один нейрон, который будет вычислять максимум от поданых на него сигналов от выходного слоя. Тогда именно этот единственный нейрон и будет образовывать искусственный выходной слой, а нейроны выходного слоя будут называться нейронами слоя суммирования. Выходной максимизирующий нейрон будет однозначно указывать класс, к которому принадлежит входной вектор. Общий такой вид построенной и одновременно обученной вероятностной нейронной сети отображен на РИС,

Рис. 9.9. Пример архитектуры сети PNN с нейроном типа MAX.

Преимущества. Обучение вероятностной нейронной сети намного проще, чем ВackРropagation. Недостатком сети является ее размер, поскольку она фактически содержит в себе все обучающие данные, требует много памяти и может медленно работать.

После того как сеть построена, неизвестный экземпляр можно подать на вход сети, и в результате прямого прохода через сеть выходной слой укажет класс, к которому, вероятнее всего, принадлежит образец.

 





©2015 www.megapredmet.ru Все права принадлежат авторам размещенных материалов.