2. Regresja raz jeszcze
• Wiemy już jak intepretować współczynnik b
• Warto zwrócić uwagę, że współczynnik b na
zmiennej wystandaryzowanej nazywać
będziemy tak zwaną „wagą beta” – β
������������
• β=b∗
������������
3. Model liniowy jedno-wielozmiennowy
• Wyobraźmy sobie sytuację kiedy chcemy
przewidzieć wyniki dzieci z testu z matematyki
– Czy lepiej zrobić to na podstawie wyników z
polskiego czy może wszystkich innych
przedmiotów poza matematyką?
4. Model liniowy jedno-wielozmiennowy
• Jeśli mamy więcej niż jedną zmienną
niezależną (predyktor) to:
• ������ ′ = ������1 ������1 + ������2 ������2 … ������������ ������������ + ������
– k- ilość zmiennych niezaleznych
• Jeśli wystandaryzujemy zmienne to:
• ������������ ′ = β1 ������1 + β2 ������2 … β������ ������������ + ������
6. Model liniowy jedno-wielozmiennowy
• Tym razem nie dopasowuje linii regresji ale
płaszczyznę (w przypadku dwóch
predyktorów)
• Liczbę wymiarów przestrzeni jaką
dopasowujemy określa ilość zmiennych, w
naszym przykładzie 2+1
7. Model liniowy jedno-wielozmiennowy
• R – współczynnik korelacji wielokrotnej
– Określa związek pomiędzy zmienną Y a zmiennymi X1 i
X2 traktowanymi łącznie
– Przyjmuje on wartości w przedziale od 0 do 1
• R^2 – współczynnik wielokrotnej determinacji
– Przemnożony przez 100% informuje nas o % wariancji
Y wyjaśnianym przez liniową kombinacje X1 i X2
– ������2 = β1 ������1 + β2 ������2
– ������2 = ������1 + ������2 (jeśli predyktory nie są skorelowane)
8. Model liniowy jedno-wielozmiennowy
• Współczynnik determinacji semicząstowej
– Jeśli nasze zmienne X1 i X2 są skorelowane to ich
wpływ na Y w pewnym momencie „nachodzi na
siebie” Aby określić wpływ X1 na Y z pominięciem
Y korzystamy ze współczynnika determinacji
semicząstkowej
• Najpierw obliczamy R^2 z uwzględnieniem obu
zmiennych a potem R^2 po odrzuceniu jednego
predyktora
• Porównujemy ze sobą oba współczynniki