Нейрокомпьютинг и его применения в экономике и бизнесе

Скачать в pdf «Нейрокомпьютинг и его применения в экономике и бизнесе»


Задача состоит в классификации некоторого набора данных с помощью многослойного персептрона и последующего анализа полученной сети с целью нахождения классифицирующих правил, описывающих каждый из классов.



А обозначает



из N свойств Aj,A?,…,Av, а а,- множество возможных


значений, которое может принимать свойство А{. Обозначим через С множество классов с]2,…,ст. Для обучающей выборки известны ассоциированные пары векторов входных и выходных значений (а, ,…,атк), где ск еС.


Алгоритм извлечения классифицирующих правил включает три этапа:


1.    Обучение нейронной сети. На этом первом шаге двухслойный персептрон тренируется на обучающем наборе вплоть до получения достаточной точности классификации.


2.    Прореживание (pruning) нейронной сети. Обученная нейронная сеть содержит все возможные связи между входными нейронами и нейронами скрытого слоя, а также между последними и выходными нейронами. Полное число этих связей обычно столь велико, что из анализа их значений невозможно извлечь обозримые для пользователя классифицирующие правила. Прореживание заключается в удалении излишних связей и нейронов, не приводящем к увеличению ошибки классификации сетью. Результирующая сеть обычно содержит немного нейронов и связей между ними и ее функционирование поддается исследованию.


3.    Извлечение правил. На этом этапе из прореженной нейронной сети извлекаются правила,


имеющие форму если (а,©#,) и (a2®q2) и … и (aN®qN), то Cj,    гд eq]y…,qNконстанты, 0- оператор отношения (=,>,<,><). Предполагается, что эти правила достаточно очевидны при проверке и легко применяются к большим базам данных.


Рассмотрим все эти шаги более подробно


Обучение нейронной сети


Предположим, что обучающий набор данных необходимо расклассифицировать на два класса А и В. В этом случае сеть должна содержать N входных и 2 выходных нейрона. Каждому из классов будут соответствовать следующие активности выходных нейронов (1,0) и (0,1). Подходящее количество нейронов в промежуточном слое, вообще говоря, невозможно определить заранее — слишком большое их число ведет к переобучению, в то время как малое не обеспечивает достаточной точности обучения. Тем не мене, как уже отмечалось ранее, все методы адаптивного поиска числа нейронов в промежуточном слое делятся на два класса, в соответствии с тем, с малого или большого числа промежуточных нейронов стартует алгоритм. В первом случае по мере обучения в сеть добавляются дополнительные нейроны, в противоположном — после обучения происходит уничтожение излишних нейронов и связей. NeuroRule использует последний подход, так что число промежуточных нейронов выбирается достаточно большим. Заметим, что NeuroRule уничтожает также и избыточные входные нейроны, влияние которых на классификацию мало.

Скачать в pdf «Нейрокомпьютинг и его применения в экономике и бизнесе»