2.2 Регрессионный анализ.
Y = aX + в, X = kY + Ь. (2.2)
Параметры а, в, k, Ь подбираются, как правило, из условий
П
S(a, в) = V(Y, - aXj - в)2 ^ min (2.3)
i=1
И
П
T(k, Ь) = ?(X< - kY - Ь)2 ^ min (2.4)
i=i k'b Такой метод подбора коэффициентов называют методом наименьших квадратов. Найденные из условий (2.3 , 2.4) уравнения (2.2) могут быть записаны так:
Y = pS^ (X - X) + У, X = pS^ (Y - У) + X,
SX Sy
где p выборочный коэффициент корреляции, SX, SY - корни квадратные
X, Y
ются уравнениями прямых регрессии.
XY
имеет смысл построить так называемое поле корреляции. Для этого осуществим группировку выборки X на г групп А1,..., Ar, а выборку Y разобьем на s групп B1,..., Bs. Обозначим через Ai}j прямоугольник, проекции которого на оси Ох и Оу совпадают с A, и Bj соответственно. Двумерный вектор с координатами X, Y попадет, таким обр азом, в Aijj тогда и только тогда, когда X Є A, и Y Є Bj. Пусть n1,..., nr количества элементов X в Ai,..., Ar, а mi,..., ms - элементов Y в Bi,..., Bs соответственно. Определим групповые средние
Y(i) = ??{k:Xk Є Лі} Yk , г =!,..., г,
X(j) = mj Т,{к:УкЄБ3} Xk, j = !,..., S.
Далее построим на плоскости Оху ломаные с узлами в точках с координатами (X^Y^)), i = 1, ...,г и (X(j),Yj), j = 1,..., s Напомним, что X, - это середина отрезка Aj, а Yj - середи на Bj. Построенные ломаные называют эмпирическими линиями регрессии, и их можно рассматривать как приближенные графики зависимостей Y от X и X от Y.
Результаты этого раздела позволяют приближенно предсказывать, какое значение будет принимать одна из величин, если значение другой нам известно. Конечно же, речь идет не о точном значении, а лишь об оценке.