se poate aștepta ca multicolinearitatea să fie puternică.
Este important să ne dăm seama că, ca urmare a multicoliniarității, nu putem estima valoarea exactă a fiecărui parametru separat. Cu toate acestea, dacă, de exemplu, în regresia din Tabelul 4.1, analizăm matricea de covarianță a estimărilor coeficienților:
24,00739 10,41840 -10,39384
10,41840 4,566967 -4,541984 -10,39384 -4,541984 4,521524
Aveți posibilitatea să acordați atenție estimării varianței sumelor coeficienților, pe care nu le putem estima cu exactitate
D (β 1 + β 2) = D (β 1) + D (β 2) + 2 cov (β 1 β 2) = 4,57 + 4,52 + 2
Putem estima suma acestor parametri destul de precis (variația este foarte mică). Deci, nu putem evalua ambii coeficienți, dar putem evalua oricare dintre coeficienții sau combinația lor liniară. Majoritatea metodelor de combatere a multicoliniarității se bazează pe aceasta.
Ce se întâmplă dacă există multicoliniaritate?
1) Nimic. Un număr de cercetători consideră că nu este nimic în neregulă cu faptul că coeficienții nu sunt estimați cu exactitate, nu. De exemplu, dacă vom folosi modelul pentru prognoză, atunci vom obține o prognoză bună bazată pe model cu multicoliniaritate.
2) Modificați specificația modelului. Adesea, multicoliniaritatea rezultă din faptul că modelul este construit incorect. Poți (a) arunca doar variabile care depind de ceilalți. (b) Înlocuiți variabilele, treceți la logaritmi / primele diferențe și așa mai departe. De exemplu, după cum vedem din exemplul nostru (tabelul 4.4), atunci când lăsăm doar o singură variabilă din două, modelul se îmbunătățește doar (coeficientul de determinare ajustat crește).
3) Creșteți eșantionul. Adăugați date cu o structură diferită, unde variabilele explicative nu depind atât de mult una de cealaltă. (Idee bună, dar unde să le obțină)
3) Mergeți la combinația liniară a variabilelor. Acest lucru se poate face diferit,