Некоторые аспекты регрессионного анализа. Тема 4

Содержание

Слайд 2

Вопросы: 4.1. Спецификация уравнения регрессии и ошибки спецификации. 4.2. Мультиколлинеарность: способы

Вопросы:

4.1. Спецификация уравнения регрессии и ошибки спецификации.
4.2. Мультиколлинеарность: способы выявления и

устранения
4.3. Фиктивные переменные в регрессионных моделях.
4.4. Гетероскедастичность
4.5. Автокорреляция
Слайд 3

Модель множественной линейной регрессии в матричном виде

Модель множественной линейной регрессии в матричном виде

Слайд 4

Слайд 5

Слайд 6

Слайд 7

Слайд 8

Слайд 9

Уравнение множественной линейной регрессии в матричном виде

Уравнение множественной линейной регрессии в матричном виде

Слайд 10

Метод наименьших квадратов

Метод наименьших квадратов

Слайд 11

Условия теоремы Гаусса-Маркова 1. i=1,…,n 2. при i=j 3. при i≠j 4. i=1,…,n

Условия теоремы Гаусса-Маркова

1. i=1,…,n
2. при i=j
3. при i≠j
4. i=1,…,n

Слайд 12

Гомоскедастичность Гетероскедастичность


Гомоскедастичность
Гетероскедастичность

Слайд 13

Условия теоремы Гаусса-Маркова при i=j 2,3 при i≠j

Условия теоремы Гаусса-Маркова
при i=j
2,3
при i≠j

Слайд 14

Условия теоремы Гаусса-Маркова или где I – единичная матрица

Условия теоремы Гаусса-Маркова

или
где I – единичная матрица

Слайд 15

Мультиколлинеарность Способы выявления и устранения

Мультиколлинеарность

Способы выявления и устранения

Слайд 16

Признаки наличия мультиколлинеарности 1. Небольшое изменение исходных данных сильно изменяет значения оценок коэффициентов

Признаки наличия мультиколлинеарности

1. Небольшое изменение
исходных данных сильно

изменяет значения оценок
коэффициентов
Слайд 17

Признаки наличия мультиколлинеарности 2. Стандартные ошибки коэффициентов очень велики (коэффициенты стат.

Признаки наличия мультиколлинеарности

2. Стандартные ошибки
коэффициентов очень
велики (коэффициенты стат.

незначимы), а
модель в целом
статистически значима
Слайд 18

Признаки наличия мультиколлинеарности 3. Значения коэффициентов неправильны с точки зрения экономической теории

Признаки наличия мультиколлинеарности

3. Значения коэффициентов
неправильны с точки
зрения

экономической
теории
Слайд 19

Способы выявления мультиколлинеарности: 1. Вычисление матрицы парных коэффициентов корреляции для всех

Способы выявления мультиколлинеарности:

1. Вычисление матрицы парных коэффициентов корреляции для всех

объясняющих переменных.
2. Расчет фактора инфляции вариации VIF (variance inflation factor).
Слайд 20

Матрица парных коэффициентов корреляции

Матрица парных коэффициентов корреляции

Слайд 21

Фактор инфляции вариации

Фактор инфляции вариации

Слайд 22

Слайд 23

Методы устранения мультиколлинеарности: 1. Удаление коллинеарных переменных. 2. Исправление выборки (проверка

Методы устранения мультиколлинеарности:

1. Удаление коллинеарных переменных.
2. Исправление выборки (проверка ее репрезентативности).
3.

Преобразование переменных, при котором уменьшается корреляция между ними. Например, переход к первым разностям.
4. Использование в модели регрессии эффекта взаимодействия факторов, например в виде их произведения.
Слайд 24

Случай 1. Исключены существенные переменные.

Случай 1. Исключены существенные переменные.

Слайд 25

Случай 2. Включены несущественные переменные.

Случай 2. Включены несущественные переменные.

Слайд 26

Информационные критерии Акаике и Шварца

Информационные критерии

Акаике и Шварца

Слайд 27

Информационные критерии Хеннана-Куинна

Информационные критерии

Хеннана-Куинна

Слайд 28

Фиктивные переменные в регрессионных моделях dummy

Фиктивные переменные в регрессионных моделях

dummy

Слайд 29

X=0 если женский x=1 если мужской


X=0 если женский
x=1 если мужской

Слайд 30

X=0 если женский x=1 если мужской


X=0 если женский
x=1 если мужской

Слайд 31

X=0 если женский x=1 если мужской


X=0 если женский
x=1 если мужской

Слайд 32

Слайд 33

Слайд 34

неправильно

неправильно

Слайд 35

правильно

правильно

Слайд 36


Слайд 37

Фиктивные переменные позволяют строить и оценивать так называемые кусочно-линейные модели, которые

Фиктивные переменные позволяют строить и оценивать так называемые кусочно-линейные модели, которые

можно применять для исследования структурных изменений.
Пусть х и у представлены в виде временных рядов.
xt – размер ОПФ в период времени t,
уt – объем выпуска продукции в период времени t.
Слайд 38

Пусть в момент времени tо произошли некие структурные изменения и линия

Пусть в момент времени tо произошли некие структурные изменения и линия

регрессии будет отличаться от той, которая была до момента tо.
Слайд 39

Слайд 40

Слайд 41

Регрессионная линия (рис) имеет коэффициент наклона β1 для t ≤ to

Регрессионная линия (рис) имеет коэффициент наклона β1 для t ≤ to

и наклон β1+β2 для t > to. При этом разрыва в точке to не происходит.
Слайд 42

Тестируя стандартную гипотезу β2=0 мы проверяем предположение о том, что фактически

Тестируя стандартную гипотезу β2=0 мы проверяем предположение о том, что фактически

структурные изменения не повлияли на объем выпуска продукции.
Слайд 43

Слайд 44

ГЕТЕРОСКЕДАСТИЧНОСТЬ ОСТАТКОВ

ГЕТЕРОСКЕДАСТИЧНОСТЬ ОСТАТКОВ

Слайд 45

Гомоскедастичность при i=j

Гомоскедастичность
при i=j

Слайд 46

Гетероскедастичность при i=j

Гетероскедастичность
при i=j

Слайд 47

Последствия гетероскедастичности Основное последствие гетероскедастичности заключается в получении неэффективных оценок параметров

Последствия гетероскедастичности

Основное последствие гетероскедастичности заключается в получении неэффективных оценок параметров модели

регрессии, что проявляется в завышении стандартных ошибок коэффициентов регрессии, занижении t-статистики и, как следствие, неправильном представлении о надежности оценок.
Слайд 48

Способы обнаружения гетероскедастичности Графики Тесты

Способы обнаружения гетероскедастичности
Графики
Тесты

Слайд 49

Примеры гетероскедастичности

Примеры гетероскедастичности

Слайд 50

Примеры гетероскедастичности

Примеры гетероскедастичности

Слайд 51

Примеры гетероскедастичности

Примеры гетероскедастичности

Слайд 52

Тесты на гетероскедастичность 1. Бартлетта 2. Голдфелда-Квандта 3. Уайта 4. Бреуша-Пагана 5. Глейзера

Тесты на гетероскедастичность

1. Бартлетта
2. Голдфелда-Квандта
3. Уайта
4. Бреуша-Пагана
5. Глейзера

Слайд 53

Остатки:

Остатки:

Слайд 54

Вне зависимости от используемых тестов необходимо сформулировать гипотезы: при i=j остатки гомоскедастичны при i=j остатки гетероскедастичны

Вне зависимости от используемых тестов необходимо сформулировать гипотезы:


при i=j


остатки гомоскедастичны
при i=j
остатки гетероскедастичны
Слайд 55

Тест Голдфелда-Куандта. 1. Упорядочить наблюдения по убыванию той независимой переменной, относительно которой есть подозрение на гетероскедастичность.

Тест Голдфелда-Куандта.

1. Упорядочить наблюдения по убыванию той независимой переменной, относительно

которой есть подозрение на гетероскедастичность.
Слайд 56

Тест Голдфелда-Куандта. 2. Опустить v наблюдений, оказавшихся в центре (v должно

Тест Голдфелда-Куандта.

2. Опустить v наблюдений, оказавшихся в центре (v должно

быть примерно равно четверти общего количества наблюдений n).
Слайд 57

Тест Голдфелда-Куандта. 3. Оценить отдельно обыкновенным МНК регрессии на первых (n−v)/2

Тест Голдфелда-Куандта.

3. Оценить отдельно обыкновенным МНК регрессии на первых (n−v)/2

наблюдениях и на последних (n−v)/2 наблюдениях при условии, что (n−v)/2 больше числа оцениваемых параметров m.
Слайд 58

Тест Голдфелда-Куандта. 4. Найти SSE1 и SSE2 – суммы квадратов остатков

Тест Голдфелда-Куандта.

4. Найти SSE1 и SSE2 – суммы квадратов остатков

(ошибок) для первой и второй регрессий, соответственно.
5. Найти Fнабл.
Слайд 59

Тест Голдфелда-Куандта. 6. Найти Fкр. по таблице распределения Фишера по уровню

Тест Голдфелда-Куандта.

6. Найти Fкр. по таблице распределения Фишера по уровню

значимости α и числу степеней свободы k1 и k2
k1= k2= (n-v-2m)/2 .
Слайд 60

Если Fнабл.>Fкр., то нулевая гипотеза отклоняется в пользу альтернативной о гетероскедастичности

Если Fнабл.>Fкр., то нулевая гипотеза отклоняется в пользу альтернативной о

гетероскедастичности остатков.
Иначе оснований отклонять нулевую гипотезу о гомоскедастичности остатков нет.
Слайд 61

Тест Уайта. 1. Оцениваем параметры исходной модели, получаем уравнение регрессии

Тест Уайта.

1. Оцениваем параметры исходной модели, получаем уравнение регрессии

Слайд 62

Тест Уайта. 2. Находим остатки 3. Находим квадраты остатков

Тест Уайта.

2. Находим остатки
3. Находим квадраты остатков

Слайд 63

Тест Уайта. 4. Строим вспомогательную регрессию, в которой в качестве зависимой

Тест Уайта.

4. Строим вспомогательную регрессию, в которой в качестве зависимой

переменной выступают квадраты остатков , а в качестве объясняющих – все регрессоры , их квадраты , попарные произведения
Слайд 64

Тест Уайта. Например, для двухфакторной модели вспомогательная регрессия будет иметь вид:

Тест Уайта.

Например, для двухфакторной модели
вспомогательная регрессия будет иметь вид:


Слайд 65

Тест Уайта. 5. Оцениваем вспомогательную регрессию и находим R2 вспомогательной регрессии. 6. Вычисляем наблюдаемое значение

Тест Уайта.

5. Оцениваем вспомогательную регрессию и находим R2
вспомогательной регрессии.


6. Вычисляем наблюдаемое значение
Слайд 66

Тест Уайта. 7. По таблице распределения Пирсона по уровню значимости α

Тест Уайта.

7. По таблице распределения Пирсона по уровню значимости α

и числу степеней свободы k = m-1 находим
m – число параметров во вспомогательной регрессии.
Слайд 67

Тест Уайта. 8. Сравниваем наблюдаемое и критическое значения.

Тест Уайта.
8. Сравниваем наблюдаемое
и критическое значения.

Слайд 68

Тест Уайта. Если , нельзя отклонить нулевую гипотезу об отсутствии гетероскедастичности.

Тест Уайта.

Если ,
нельзя отклонить нулевую гипотезу об отсутствии гетероскедастичности.


Если ,
нулевая гипотеза отклоняется в пользу конкурирующей о наличии гетероскедастичности.
Слайд 69

Тест Уайта (упрощенный) Отличается от классического вспомогательной регрессией, в которой в

Тест Уайта (упрощенный)

Отличается от классического вспомогательной регрессией, в которой в

качестве зависимой переменной выступают квадраты остатков , а в качестве объясняющей –
Слайд 70

Тест Уайта (упрощенный). Тогда вспомогательная регрессия будет иметь вид:

Тест Уайта (упрощенный).

Тогда вспомогательная регрессия будет иметь вид:

Слайд 71

Тест Уайта (упрощенный). А число степеней свободы k = 2-1=1

Тест Уайта (упрощенный).

А число степеней свободы k = 2-1=1

Слайд 72

Критерий Бартлетта.

Критерий Бартлетта.

Слайд 73

Критерий Бартлетта.

Критерий Бартлетта.

Слайд 74

Слайд 75

Обобщенный МНК Отличается от обычного МНК в изменении предположений о поведении

Обобщенный МНК

Отличается от обычного МНК в изменении предположений о поведении случайной

ошибки.
Обычный МНК:
Обобщенный МНК:
Слайд 76

Обобщенный МНК Или Обычный МНК: при i=j при i≠j Обобщенный МНК: при i=j при i≠j

Обобщенный МНК

Или
Обычный МНК:
при i=j
при i≠j
Обобщенный МНК:
при

i=j
при i≠j
Слайд 77

Обобщенный МНК Если есть только гетероскедастичность, то: Обобщенный МНК: при i=j

Обобщенный МНК

Если есть только гетероскедастичность, то:
Обобщенный МНК:
при i=j

Слайд 78

Обобщенный МНК Критерий минимизации суммы квадратов ошибок МНК заменяется на другой

Обобщенный МНК

Критерий минимизации суммы квадратов ошибок МНК заменяется на другой –

минимизация обобщенной суммы квадратов отклонений (с учетом ненулевых ковариаций случайной ошибки для разных наблюдений и непостоянной дисперсии ошибки)
Слайд 79

Обобщенный МНК Соответственно усложняется вид системы уравнений для определения оценок коэффициентов.

Обобщенный МНК

Соответственно усложняется вид системы уравнений для определения оценок коэффициентов. ОМНК

позволяет получить линейные несмещенные оценки параметров модели регрессии, которые будут эффективными.
Слайд 80

Обобщенный МНК Соответственно усложняется вид системы уравнений для определения оценок коэффициентов.

Обобщенный МНК

Соответственно усложняется вид системы уравнений для определения оценок коэффициентов. ОМНК

позволяет получить линейные несмещенные оценки параметров модели регрессии, которые будут эффективными.
Слайд 81

Обобщенный МНК

Обобщенный МНК

Слайд 82

Обобщенный МНК Оценки МНК получаются по формуле Оценки ОМНК получаются по формуле

Обобщенный МНК

Оценки МНК получаются по формуле

Оценки ОМНК получаются по формуле


Слайд 83

Обобщенный МНК Для применения ОМНК необходимо знать элементы матрицы Ω, что на практике случается крайне редко.

Обобщенный МНК

Для применения ОМНК необходимо знать элементы матрицы Ω, что на

практике случается крайне редко.
Слайд 84

Взвешенный МНК Предположим, что нам известны значения величин Тогда исходную модель разделим на σi:

Взвешенный МНК

Предположим, что нам известны значения величин
Тогда исходную модель разделим

на σi:
Слайд 85

Исходная модель

Исходная модель

Слайд 86

где причем при

где

причем


при

Слайд 87

Взвешенный МНК Для получения оценок неизвестных дисперсий будем предполагать, что они

Взвешенный МНК

Для получения оценок неизвестных дисперсий будем предполагать, что они пропорциональны

некоторым числам
где σ2 – некоторая константа.
Слайд 88

Взвешенный МНК Принимая различные гипотезы относительно характера гетероскедастичности, будем иметь соответствующие

Взвешенный МНК

Принимая различные гипотезы относительно характера гетероскедастичности, будем иметь соответствующие значения

λi.
Если дисперсия случайного члена пропорциональна квадрату регрессора X, так что
то
Слайд 89

Взвешенный МНК Если дисперсия случайного члена пропорциональна X, так что то

Взвешенный МНК

Если дисперсия случайного члена пропорциональна X, так что
то

Слайд 90

Взвешенный МНК Если предположить, что дисперсия случайного члена пропорциональна то необходимо преобразовать модель следующим образом:

Взвешенный МНК

Если предположить, что дисперсия случайного члена пропорциональна
то необходимо преобразовать

модель следующим образом:
Слайд 91

Существуют также и другие методы коррекции модели на гетероскедастичность, в частности,

Существуют также и другие методы коррекции модели на гетероскедастичность, в частности,

состоятельное оценивание стандартных ошибок.
Известны способы коррекции стандартных ошибок Уайта и Ньюи-Веста.
Стандартные ошибки в форме Уайта.
Рассмотрим матрицу XTΩX. Имеем ij-й элемент матрицы получается по
формуле (XTΩX)ij = . Обозначим как векторы-строки
размерности 1×k матрицы регрессоров X. Тогда XTΩX = . Уайт
предложил использовать в качестве состоятельной оценки матрицы ковариаций оценок коэффициентов величину:
Стандартные отклонения, рассчитанные по последней формуле, являются состоятельными стандартными ошибками при наличии гетероскедастичности.
Слайд 92

Стандартные ошибки в форме Ньюи-Веста. Пусть в матрице ковариаций Ω ненулевые

Стандартные ошибки в форме Ньюи-Веста.
Пусть в матрице ковариаций Ω ненулевые

элементы стоят не только на главной диагонали, как в предыдущем случае Уайта, но и на соседних диагоналях, отстоящих от главной не более чем на L ( ).
Ньюи и Вест показали, что оценка:
является состоятельной оценкой матрицы ковариаций оценок коэффициентов регрессии.
Веса wj выбираются либо по Бартлетту: ,
либо по Парзену:
Стандартные ошибки, рассчитанные по Ньюи и Весту, являются состоятельными стандартными ошибками при наличии гетероскедастичности и автокорреляции остатков.
Слайд 93

Автокорреляция в остатках

Автокорреляция в остатках

Слайд 94

пространственные данные – cross-sectional data; временные ряды данных – time-series data

пространственные данные –
cross-sectional data;
временные ряды данных –
time-series data

Слайд 95

Условие отсутствия автокорреляции при i≠j или где I – единичная матрица

Условие отсутствия автокорреляции
при i≠j
или
где I – единичная матрица

Слайд 96

Причины автокорреляции Стохастические зависимости между значениями случайных ошибок – автокорреляция ошибок.

Причины автокорреляции

Стохастические зависимости между значениями случайных ошибок – автокорреляция ошибок.
Ее

причинами являются:
влияние некоторых случайных факторов или опущенных в уравнении регрессии важных объясняющих переменных, которое не является однократным, а действует в разные периоды времени;
случайный член может содержать составляющую, учитывающую ошибку измерения объясняющей переменной.
Слайд 97

Последствия автокорреляции: 1. Выборочные дисперсии полученных оценок коэффициентов будут больше по

Последствия автокорреляции:
1. Выборочные дисперсии полученных оценок коэффициентов будут больше по сравнению с

дисперсиями по альтернативным методам оценивания, т.е. оценки коэффициентов будут неэффективны.
2. Стандартные ошибки коэффициентов будут оценены неправильно, чаще всего занижены, иногда настолько, что нет возможности воспользоваться для проверки гипотез соответствующими точными критериями – мы будем чаще отвергать гипотезу о незначимости регрессии, чем это следовало бы делать в действительности.
Автокорреляция означает нарушение условия Гаусса-Маркова, которое принимает вид:
и матрица ковариаций:
Слайд 98

Стандартные ошибки коэффициентов будут оценены неправильно, т.е. оценки коэффициентов будут неэффективны.

Стандартные ошибки коэффициентов будут оценены неправильно, т.е. оценки коэффициентов будут неэффективны.


Выводы о значимости оценок коэффициентов будут некорректны.

Последствия автокорреляции:

Слайд 99

Можно рассматривать так называемую корреляцию сериями (автокорреляцию), когда зависимость между ошибками,

Можно рассматривать так называемую корреляцию сериями (автокорреляцию), когда зависимость между ошибками,

отстоящими на некоторое количество шагов s, называемое порядком корреляции (в частности, на один шаг, s=1), остается одинаковой, что хорошо проявляется визуально на графике в системе координат (ei; ei-s).
Например, для s=1 показаны отрицательная (слева) и положительная (справа) автокорреляция остатков. В экономических исследованиях чаще всего встречается положительная автокорреляция.
Слайд 100

система координат (ei; ei-s)

система координат
(ei; ei-s)

Слайд 101

Слайд 102

Слайд 103

et t Пример графика остатков по наблюдениям при положительной автокорреляции

et

t

Пример графика остатков по наблюдениям при положительной автокорреляции

Слайд 104

Пример графика остатков по наблюдениям при отрицательной автокорреляции et t

Пример графика остатков по наблюдениям при отрицательной автокорреляции

et

t

Слайд 105

Слайд 106

Тестирование на наличие автокорреляции. Для проверки гипотезы о существовании линейной автокорреляции

Тестирование на наличие автокорреляции.
Для проверки гипотезы о существовании линейной автокорреляции первого

порядка, которая чаще всего имеет место на практике, используется критерий Дарбина-Уотсона, основанный на статистике
Слайд 107

Критерий Дарбина-Уотсона.

Критерий Дарбина-Уотсона.

Слайд 108

Тестирование на наличие автокорреляции. Критерий Дарбина-Уотсона предназначен для моделей с детерминированными

Тестирование на наличие автокорреляции.
Критерий Дарбина-Уотсона предназначен для моделей с детерминированными регрессорами

X и не применим в случаях, когда среди объясняющих переменных есть лагированные значения переменной Y.
Для больших выборок
Автокорреляция отсутствует
Положительная автокорреляция
Отрицательная автокорреляция
Слайд 109


Слайд 110

Коэффициент автокорреляции первого порядка

Коэффициент автокорреляции первого порядка

Слайд 111

Слайд 112

По таблице Дарбина-Уотсона определяются две критические точки: верхняя dU и нижняя dL.


По таблице Дарбина-Уотсона определяются две критические точки: верхняя dU и

нижняя dL.
Слайд 113

Границы интервала (dl и du) критических значений критерия Дарбина-Уотсона при уровне

Границы интервала (dl и du) критических значений критерия Дарбина-Уотсона при уровне

значимости α=0,05 (n - объем выборки, m - число объясняющих переменных
Слайд 114

2 4 0 dL dU dcrit положительная автокорреляция отрицательная автокорреляция нет

2

4

0

dL

dU

dcrit

положительная
автокорреляция

отрицательная автокорреляция

нет автокорреляции

dcrit

Области статистических решений для критерия Дарбина-Уотсона

H0: ρ=0 (автокорреляции

нет)
H1: ρ≠0 (автокорреляция есть)

4-dL

4-dU

Слайд 115

Слайд 116

Методы устранения автокорреляции Кохрейна-Оркатта Хилдрета-Лу Дарбина

Методы устранения автокорреляции
Кохрейна-Оркатта
Хилдрета-Лу
Дарбина

Слайд 117

Запишем регрессию (1):

Запишем регрессию (1):

Слайд 118

В момент времени t-1 имеем (2):

В момент времени t-1 имеем (2):

Слайд 119

Умножим уравнение (2) на коэффициент автокорреляции ρ:

Умножим уравнение (2) на коэффициент автокорреляции ρ:

Слайд 120

Вычтем уравнение (2) из уравнения (1)

Вычтем уравнение (2) из уравнения (1)

Слайд 121

Слайд 122

Слайд 123


Слайд 124

Предположим, что остатки ui удовлетворяют следующему уравнению: ui=ρui-1+ςi, i=2,...,n, (4.11) представляющему

Предположим, что остатки ui удовлетворяют следующему уравнению:
ui=ρui-1+ςi, i=2,...,n, (4.11)
представляющему собой авторегрессионную

модель первого порядка, для которой выполнено |ρ|≤1, а ςi удовлетворяют условиям:
E(ςi)=0 и

Тогда несложно показать, что будет выполняться:
и матрица ковариаций

Слайд 125

Оценивание регрессии при наличии автокорреляции. Метод 1. Отказавшись от определения величины

Оценивание регрессии при наличии автокорреляции.

Метод 1. Отказавшись от определения величины ρ

статистически, можно положить ρ=0,5; 1 или -1.
Однако даже грубая статистическая оценка будет более эффективной, поэтому другой способ определения ρ с помощью статистики Дарбина-Уотсона ρ≈1–0,5d.
Применяя затем непосредственно ОМНК, получим оценки коэффициентов.
Метод 2. Рассмотрим на примере парной регрессии:
(4.12)
причем и .
Ошибки в (4.12) не автокоррелированы и можно применять МНК.
Слайд 126

Метод 3. Итеративная процедура Кохрейна-Оркатта. а) Оценивается регрессия с исходными не

Метод 3. Итеративная процедура Кохрейна-Оркатта.
а) Оценивается регрессия с исходными не преобразованными данными

с помощью обыкновенного МНК.
б) Вычисляются остатки ei.
в) Оценивается регрессия ei=ρei-1+ςi, и коэффициент при ei-1 дает оценку ρ.
г) С учетом полученной оценки ρ уравнение
преобразовывается к виду (4.12), оценивание которого позволяет получить пересмотренные оценки коэффициентов β0 и β1.
д) Вычисляются остатки регрессии (4.12) и процесс выполняется снова, начиная с этапа в).
Итерации заканчиваются, когда абсолютные разности последовательных значений оценок коэффициентов β0, β1 и ρ будут меньше заданного числа (точности).
Подобная процедура оценивания порождает проблемы, касающиеся сходимости итерационного процесса и характера найденного минимума: локальный или глобальный
Слайд 127

Метод 4. Метод Хилдрета-Лу. Основан на тех же принципах, что и

Метод 4. Метод Хилдрета-Лу.
Основан на тех же принципах, что и

рассмотренный метод 3, но использует другой алгоритм вычислений. Здесь регрессия (4.12) оценивается МНК для каждого значения ρ из диапазона [-1, 1] с некоторым шагом внутри него. Значение, которое дает минимальную стандартную ошибку для преобразованного уравнения (4.12), принимается в качестве оценки ρ, а коэффициенты регрессии определяются при оценивании уравнения (4.12) с использованием этого значения.