Технологическое прогнозирование

Скачать в pdf «Технологическое прогнозирование»


Очевидно, что если некоторые собственные числа будут равны нулю, то начнется резкое возрастание дисперсии.


R


Г 1


1


r


12


Г1к ^


| Г21 1 :


1


Г2к


| :


61


r


k 2


… 1 j


Внешним признаком наличия мультиколлинеарности служат слишком большие значения элементов обратной матрицы C = (F F) , а значит, и оценок регрессионных коэффициентов b. Мультиколлинеарность легко заметить, если работать не с исходными регрессорами fu, а со стандартизованными. Ранее было показано, что при стандартизации из модели уходит свободный член, а корреляционная матрица имеет вид


Если один из коэффициентов корреляции очень велик, скажем 0,9, то можно считать, что между соответствующими регрессорами существует сильная зависимость и есть опасность проявления мультиколлинеарности.


В линейной алгебре для исследования мультиколлинеарности используют понятие числа обусловленности. Вводят P-, Н- и М-числа обусловленности, Р—число есть отношениеХтах/^т1пмаксимального и минимального собст-венных чисел матрицы. Число обусловленности Н определяется через сингулярные числа матрицы. Сингулярные чис^а матрицы F — положительные значения корня квадратного из собственных чисел матрицы F F. В этом случае число обусловленности H = sqrt(Xmax/Xmin). При этом Р=|Н| . Несколько проще вычисляется М-число обусловленности, определяемое как M^F F^=kmaxgj/ max|?j’ , ^е |


gij-элемент матрицыC=G 1== (FTF) 1. Очень большие числа обусловленности — верный признак мультиколлинеарности. Можно


считать, что P(FTF)>105 — 106 индицируют сильную мультиколлинеарность.


Регуляризация .Регуляризация представляет попытку преодоления последствий плохой обусловленности матрица (применительно к регрессионному анализу плохой обусловленности информационной матрицы). В регрессионном анализе указанный подход получил название ридж-регрессии или гребневой регрессии.

Скачать в pdf «Технологическое прогнозирование»