Нейрокомпьютинг и его применения в экономике и бизнесе

Скачать в pdf «Нейрокомпьютинг и его применения в экономике и бизнесе»


Используя противоположную подстановку (умножение—> max), (сложение—> min ) получим преобразование, характерное для нечеткого И-нейрона


у = min{max( w, ,’), max( щ , x2)}


Извлечение правил if-then


В главе, посвященной извлечению знаний, мы уже познакомились с нейросетевыми методами извлечения правил из данных. Настало время узнать, как можно извлечь с их помощью нечеткие правила.


Рассмотрим набор нечетких правил


51 (: Если х есть Д , то у есть В/, i = 1,…,п.


Каждое из них может интерпретироваться как обучающая пара для многослойного персептрона. При этом, условие (х есть Д) определяет значение входа, а следствие (у есть В,) — значение выхода сети. Полное обучающее множество имеет вид {(Д, В]Ап, Вп)}. Заметим, что

каждому лингвистическому значению Aiy В, соответствует своя функция принадлежности, так что каждое нечеткое правило определяет связь двух функций.


Если же правила имеют более сложный вид, типа “два входа — один выход”:


Л(: Еслихесть^ и у есть Bit то z есть Q, /’ =


то обучающая выборка принимает форму {(At, Bj), С(}, i =


Существует два основных подхода к реализации нечетких правил типа if-then с помощью многослойных персептронов.


В методе Умано и Изавы нечеткое множество представляется конечным числом значений совместимости. Пусть а2 включает носители всех /I, , входящих в обучающую выборку а также носители всех А’, которые могут быть входами в сети. Предположим также, что [Д ,Д2включает носители всех /i , входящих в обучающую выборку, а также носители всех В’, которые могут быть входами в сети. Положим ‘ = I + (j —1)(«2 -1 ) / (I —1), j = !,•••, 10 I > 1,

Скачать в pdf «Нейрокомпьютинг и его применения в экономике и бизнесе»