назад Оглавление вперед


[Старт] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [ 88 ] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [107] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117] [118] [119] [120] [121] [122] [123] [124] [125] [126] [127] [128] [129] [130] [131] [132] [133] [134] [135] [136] [137] [138] [139] [140] [141] [142] [143] [144] [145] [146] [147] [148] [149] [150] [151] [152] [153] [154] [155] [156] [157] [158] [159] [160] [161] [162] [163] [164] [165] [166] [167] [168] [169] [170] [171] [172] [173] [174] [175] [176]


88

Первое допущение просто повторяет, что в данной модели мы имеем дело с линейными зависимостями, и что величины зависимой переменной Y определяются только одним значимым фактором - независимой переменной X.

Второе допущение указывает, что хотя существует только один главный фактор (Л), определяющий величину Y, присутствует также множество второстепенных факторов, некоторые из них будут оказывать положительное влияние на величину Y, а другие отрицательное. В случае множества отрицательных и положительных влияний значение ошибки будет нормально распределено. Допущение о постоянной дисперсии значения ошибки означает, что как бы ни была велика или мала величина независимой переменной X, разброс значений е постоянен. Говорят, что значение ошибки обладает свойством гомоскеда-стичности. Если разброс значений ошибки непостоянен, то ошибки определяются как гетероскедастичные.

Третье допущение о том, что значения е независимы друг от друга, просто означает, что второстепенные факторы или факторы, которые послужили причиной ошибки для одной из величин Y, не приводят автоматически к ошибкам для всех наблюдений Y. Когда значения е независимы, данные являются неавтокорре-лированнымн. Если значения е не являются независимыми, говорят, что данные автокоррелированы или демонстрируют наличие автокорреляции. Иногда автокорреляцию называют "последовательной корреляцией".

Так как Y линейно связана с е, то сама Y - это случайная переменная. Для любых значений Xзначения Убудут нормально распределены, и, таким образом, статистическое распределение Yi может быть полностью описано с помощью его средней и дисперсии:

Так как а и Pi постоянны, a Xj нестохастична, это выражение преобразуется в

£(У,) = £(а + р,Х, +

(6.4)

ад)-о + М,+Е(е,).

(6.5)

Однако поскольку математическое ожидание е, равно нулю, выражение (6.5) превращается в

£(У,) = а + р,Х,. (6.6)



Так как математическое ожидание значений е,- равно нулю, то дисперсия Y/, которая также служит дисперсией е{, является средним значением ef , т.е.

Е(е,-0)2/л = Ъе} /л = Щ ef) = a2.

Отсюда Yj нормально распределено с параметрами N(a + PiXb о2). Это показано на рис. 6.3.

Для каждого значения X существует ожидаемое значение Yt , которое нормально распределено и которому, таким образом, мы можем приписать вероятности, т.е. это вероятностная модель.

Рис. 6.3

Определение линии регрессии

Величины аир, минимизирующие суммы квадратов отклонений У от Y , находятся следующим образом:

var* Z(X-xf

a = (F-pJr). (6.8)

Заметьте, что и ковариация и дисперсия обычно имеют делители л-1, однако они сокращаются в указанном выше выражении.



£(-2*(У -а-р*))*. (6.12)

Сумма квадратов минимальна, когда обе эти частные производные равны нулю, т.е. при

£(У-а-р*) = 0;

2>(У-а-рХ) = 0. В результате получаем:

£у =«а + р][>;

(6.13)

2*У=а£* + р2*2.

Сейчас нам необходимо решить систему линейных уравнений. Начнем с умножения первого выражения на ЪХ и второго на п. Произведя эти действия, получим:

Х*Ху = па£* + р(1*)2;

(6.14)

nXY = na£x +n\i£x2 .

dSS dSS

- и - - первые производные по а и p.

Значения ошибок, называемые также остатками, рассчитываются как

е, =(/",-У,), (6-9)

где У,- - наблюдаемая величина У, a Yt - это оценка величины У Сумма квадратов (5) составляет

5Я = £(у-у)2 = £(У-а-р*)2, (6.10)

где аир - определяемые параметры.

= 1(-2(Г-«-(*)) (6.11)

[Старт] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [ 88 ] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [107] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117] [118] [119] [120] [121] [122] [123] [124] [125] [126] [127] [128] [129] [130] [131] [132] [133] [134] [135] [136] [137] [138] [139] [140] [141] [142] [143] [144] [145] [146] [147] [148] [149] [150] [151] [152] [153] [154] [155] [156] [157] [158] [159] [160] [161] [162] [163] [164] [165] [166] [167] [168] [169] [170] [171] [172] [173] [174] [175] [176]