Нейрокомпьютинг и его применения в экономике и бизнесе

Скачать в pdf «Нейрокомпьютинг и его применения в экономике и бизнесе»


Используем Sc и queryс для определения метки класса для С.


«Определяем долей ли узел С расширяться> если локальный критерий остановки не удовлетворен то поместить <C,Sc,queryс,constrc > в очередь Queue .


Вернуть дерево с корнем R .


TREPAN поддерживает очередь листьев, которые раскрываются и порождают поддеревья. В каждом узле очереди TREPAN сохраняет: (i) подмножество примеров, (ii) еще одно множество векторов, который называется набором вопросов (query) и (Ш) набор ограничений (constr).


Подмножество примеров включает просто те векторы обучающего набора, которые достигают данного узла дерева. Дополнительный набор вопросов Оракулу используется для выбора теста на разветвление в узле и определения класса примеров, если узел является листом. Алгоритм всегда требует, чтобы число примеров, на основе которых оценивается узел, было бы не меньше заданного (min_sample). Если же до данного узла доходит меньшее число примеров, TREPAN генерирует новые искусственные примеры, используя набор ограничений в данном узле. Множество ограничений определяет условия, которым должны удовлетворять примеры, чтобы достичь данного узла — эта информация используется при формировании набора вопросов для создаваемого нового узла. Для завершения процедуры построения дерева TREPAN использует локальный критерий — он оценивает состояние данного узла и решает, превратить ли его в лист, и глобальные критерии — максимальный размер дерева и общую оценку качества классификации примеров деревом.


Возникает естественный вопрос: “А зачем вообще нужна нейронная сеть для данного алгоритма?” Ведь он может просто использовать обучающую выборку — известно же, какому классу принадлежит каждый пример. Более того, как бы хорошо ни была обучена сеть, она все равно будет делать ошибки, неправильно классифицируя некоторые примеры. Дело в том, что именно использование нейросетей в качестве Оракула дает возможность получать деревья решений, имеющих более простую структуру, чем у деревьев, обученных на исходных примерах. Это является следствием как хорошего обобщения информации нейронными сетями, так и использования при их обучении операции исправления данных (CLEARNING). Кроме того, алгоритмы построения деревьев, исходя из тренировочного набора данных, действительно разработаны и с их помощью такие деревья строятся путем рекурсивного разбиения пространства признаков. Каждый внутренний узел подобных деревьев представляет критерий расщепления некоторой части этого пространства, а каждый лист дерева — соответствует классу векторов признаков. Но в отличие от них TREPAN конструирует дерево признаков методом первого наилучшего расширения. При этом вводится понятие наилучшего узла, рост которого оказывает набольшее влияние на точность классификации генерируемым деревом. Функция, оценивающая узел п , имеет вид F(n) = r(n)( 1 — /(n)), где r(n) вероятность достижения узла п примером, а /(п) — оценка правильности обработки этих примеров деревом. TREPAN очень интересно осуществляет разделение примеров, достигающих данный внутренний узел дерева, а именно, использует так называемый m-of-n тест. Такой тест считается выполненным, когда выполняются по меньшей мере т из п условий. Если, например, имеется 3 булевых переменных х]23, то использование выражения 2 — of — {х] ,-iX23} будет

Скачать в pdf «Нейрокомпьютинг и его применения в экономике и бизнесе»