Нейрокомпьютинг и его применения в экономике и бизнесе

Скачать в pdf «Нейрокомпьютинг и его применения в экономике и бизнесе»


Первый член описывает обычно минимизируемое в методе обратного распространения ошибки квадратичное отклонение выхода нейронной сети _y = _y(x,w)oT желаемого значения ydВторое слагаемое представляет собой квадратичное отклонение исправленного входного


значения х от реального его значения х». Соответственно, для весов сети w и для исправленных входных значений х получаются два правила их модификации. Для весов оно такое же, как и в стандартном методе обратного распространения ошибки, а для исправленного входа имеет вид


д Е


Х=~дХгде индекс / определяет номер итерации данного входа. Представляя х( в виде суммы


подлинного начального входного значения xJ и поправки Д(, получим для последней следующее уравнение итерационного изменения

Аы=@- к)-ч(у / )) ■


Это уравнение включает


■ экспоненциальное затухание А: в отсутствие нового входа А стремится к нулю со скоростью пропорциональной (1к) к е [0,1].


■ член, пропорциональный ошибке выходного значения    аналогичная


пропорциональность свойственна и обычному соотношению для модификации весов -чем больше ошибка, тем больше ее влияние на исправление входного значения. Этот член также пропорционален чувствительности выхода ко входу — ду/дх.


Вайгенд и его коллеги предложили наглядную механическую интерпретацию минимизируемой функции, а также отношению скоростей обучения и исправления (см. Рисунок 4).

Рисунок 4. Механическая аналогия конкуренции между обучением и


е


исправлением данных. К реальному входу X присоединяется пружина и растягивается другим концом до точки х , что сопровождается


увеличением энергии в пружине на k(xJхУ. Но при этом энергия,


запасенная в пружине, связывающей реальное и желаемое значения выхода сети, может уменьшиться (растяжение правой пружины меньше, чем левой) так, что суммарная энергия двух пружин уменьшается.

Скачать в pdf «Нейрокомпьютинг и его применения в экономике и бизнесе»