Asymptotically independent estimators in a structural linear model with measurement errors

We consider a structural linear regression model with measurement errors. A new parameterization is proposed, in which the expectation of the response variable plays the role of a new parameter instead of the intercept. This enables us to form three groups of asymptotically independent estimators in...

Повний опис

Збережено в:
Бібліографічні деталі
Дата:2016
Автори: Kukush, A. G., Tsaregorodtsev, Ya. V., Shklyar, S. V., Кукуш, О. Г., Царегородцев, Я. В., Шкляр, С. В.
Формат: Стаття
Мова:Українська
Опубліковано: Institute of Mathematics, NAS of Ukraine 2016
Онлайн доступ:https://umj.imath.kiev.ua/index.php/umj/article/view/1937
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Ukrains’kyi Matematychnyi Zhurnal
Завантажити файл: Pdf

Репозитарії

Ukrains’kyi Matematychnyi Zhurnal
_version_ 1860507832595513344
author Kukush, A. G.
Tsaregorodtsev, Ya. V.
Shklyar, S. V.
Кукуш, О. Г.
Царегородцев, Я. В.
Шкляр, С. В.
author_facet Kukush, A. G.
Tsaregorodtsev, Ya. V.
Shklyar, S. V.
Кукуш, О. Г.
Царегородцев, Я. В.
Шкляр, С. В.
author_sort Kukush, A. G.
baseUrl_str https://umj.imath.kiev.ua/index.php/umj/oai
collection OJS
datestamp_date 2019-12-05T09:32:19Z
description We consider a structural linear regression model with measurement errors. A new parameterization is proposed, in which the expectation of the response variable plays the role of a new parameter instead of the intercept. This enables us to form three groups of asymptotically independent estimators in the case where the ratio of variances of the errors is known and two groups of this kind if the variance of the measurement error in the covariate is known. In this case, it is not assumed that the errors and the latent variable are normally distributed.
first_indexed 2026-03-24T02:15:35Z
format Article
fulltext УДК 519.21 О. Г. Кукуш, Я. В. Царегородцев, С. В. Шкляр (Київ. нац. ун-т iм. Т. Шевченка) АСИМПТОТИЧНО НЕЗАЛЕЖНI ОЦIНКИ У СТРУКТУРНIЙ ЛIНIЙНIЙ МОДЕЛI З ПОХИБКАМИ ВИМIРЮВАННЯ We consider a structural linear regression model with measurement errors. A new parameterization is proposed, in which the expectation of the response variable plays the role of a new parameter instead of the intercept. This enables us to form three groups of asymptotically independent estimators in the case where the ratio of variances of the errors is known and two groups of this kind if the variance of the measurement error in the covariate is known. In this case, it is not assumed that the errors and the latent variable are normally distributed. Рассматривается структурная линейная модель регрессии с ошибками измерений. Предложена новая параметриза- ция, в которой вместо свободного члена фигурирует математическое ожидание отклика. Это позволяет выделить три группы асимптотически независимых оценок параметров в случае заданного отношения дисперсий ошибок измерений и две такие группы, когда задана дисперсия ошибки в регрессоре. При этом не требуется нормальность распределений ошибок и скрытой переменной. 1. Вступ. Найпростiша лiнiйна модель регресiї з похибками вимiрювання описується двома рiвняннями y = \beta 0 + \beta 1\xi + \varepsilon , x = \xi + \delta . (1) Усi величини в цiй моделi скалярнi. Тут y — спостережуваний вiдгук, \xi — неспостережувана прихована змiнна (регресор), \varepsilon — похибка спостережень вiдгуку, x — спостережувана сурогатна змiнна, \delta — похибка вимiрювання регресора. Ми розглянемо лише структурний випадок, в яко- му величина \xi є випадковою (на вiдмiну вiд функцiонального випадку, де iстинне значення \xi є невипадковим). Подiбнi моделi з багатьма регресорами, як структурнi, так i функцiональнi, за- стосовуються, зокрема, в економетрицi [1]. Систематично модель (1) вивчається в монографiях [2, 3]. Вважаємо, що похибки \varepsilon , \delta мають нульовi математичнi сподiвання, а випадковi величини \xi , \epsilon , \delta є незалежними з додатними дисперсiями \sigma 2 \xi , \sigma 2 \varepsilon , \sigma 2 \delta вiдповiдно. Розглянемо незалежнi копiї моделi (1): yi = \beta 0 + \beta 1\xi i + \varepsilon i, xi = \xi i + \delta i, 1 \leq i \leq n. (2) За спостереженнями (yi, xi), 1 \leq i \leq n, потрiбно оцiнити вiльний член \beta 0, кутовий коефiцiєнт \beta 1, а також заважальнi параметри моделi \sigma 2 \xi , \sigma 2 \varepsilon , \sigma 2 \delta та \mu x — спiльне математичне сподiвання x та \xi . У гауссiвському випадку, коли \xi , \varepsilon та \delta є гауссiвськими, розподiл спостережуваної пари описується набором iз шести параметрiв моделi: \beta 0, \beta 1, \mu x, \sigma 2 \xi , \sigma 2 \varepsilon , \sigma 2 \delta . Але така модель є неiдентифiкованою [3, с. 5, 6]. Найбiльш поширеними є два випадки, в кожному з яких оцiнюється лише п’ять параметрiв: (A) вiдоме вiдношення \lambda дисперсiй похибок \lambda = \sigma 2 \varepsilon \sigma 2 \delta ; c\bigcirc О. Г. КУКУШ, Я. В. ЦАРЕГОРОДЦЕВ, С. В. ШКЛЯР, 2016 ISSN 1027-3190. Укр. мат. журн., 2016, т. 68, № 11 1505 1506 О. Г. КУКУШ, Я. В. ЦАРЕГОРОДЦЕВ, С. В. ШКЛЯР (B) вiдома дисперсiя \sigma 2 \delta . В обох випадках виписуються оцiнки максимальної правдоподiбностi [3] (роздiл 1.3.1). У випадку (A) при \lambda = 1 вони є оцiнками ортогональної регресiї, а у випадку (B) — виправле- ною оцiнкою найменших квадратiв. Оцiнки максимальної правдоподiбностi (ОМП) є строго консистентними та асимптотично нормальними. У данiй статтi ми пропонуємо iншу параметризацiю моделi (1). Замiсть вiльного члена \beta 0 ми вводимо новий параметр \mu y — математичне сподiвання вiдгуку. Маємо \mu y = \beta 0 + \beta 1\mu x, тому модель набирає вигляду y = \mu y + \beta 1(\xi - \mu x) + \varepsilon , x = \xi + \delta . (3) У гауссiвському випадку за умови (A), якщо не оцiнювати заважальний параметр \sigma 2 \xi , можна видiлити три групи асимптотично незалежних оцiнок максимальної правдоподiбностi: (\^\mu x, \^\mu y), \^\beta 1, \^\sigma 2 \delta . Для моделi (1) маємо лише двi групи асимптотично незалежних оцiнок: (\^\mu x, \^\beta 0, \^\beta 1), \^\sigma 2 \delta , хоча всерединi першої групи \^\mu x та \^\beta 1 асимптотично незалежнi. Тож у моделi (3) для четвiрки параметрiв зручнiше будувати асимптотичну довiрчу область, нiж вiдповiдну довiрчу область у моделi (1). У гауссiвському випадку за умови (B) у моделi (3) маємо двi групи асимптотично незале- жних ОМП: (\^\mu x, \^\mu y) та ( \^\beta 1, \^\sigma 2 \varepsilon , \^\sigma 2 \xi ). Проте п’ятiрка вiдповiдних оцiнок ( \^\mu x, \^\beta 0, \^\beta 1, \^\sigma 2 \varepsilon , \^\sigma 2 \xi ) у моделi (1) не допускає розбиття на групи асимптотично незалежних оцiнок. Тут також бачимо перевагу моделi (3). Далi верхня риска означає усереднення за номером спостереження i, наприклад \=x = = 1 n \sum n i=1 xi. Будемо використовувати стандартнi позначення для емпiричних дисперсiй та емпiричної коварiацiї: sxx = 1 n n\sum i=1 (xi - \=x)2, syy = 1 n n\sum i=1 (yi - \=y)2, (4) sxy = 1 n n\sum i=1 (xi - \=x)(yi - \=y). (5) Iдеєю розглянути модель (3) ми завдячуємо L. J. Gleser’у, який у роботi [4] зазначив, що для моделi (1) у гауссiвському випадку пара статистик (\=x, \=y) асимптотично незалежна вiд трiйки статистик (sxx, sxy, syy). Далi ми вiдмовляємось вiд припущення про гаусcовiсть базових розподiлiв моделi, але продовжуємо вивчати оцiнки, якi б у гаусcовому випадку були ОМП. Умови видiлення груп асимптотично незалежних оцiнок виявляться необтяжливими: ми вимагатимемо, щоб третi (а iнколи й четвертi) моменти похибок \varepsilon , \delta поводили себе так само, як у гауссiвському випадку, проте не вимагатимемо цього вiд регресора \xi . ISSN 1027-3190. Укр. мат. журн., 2016, т. 68, № 11 АСИМПТОТИЧНО НЕЗАЛЕЖНI ОЦIНКИ У СТРУКТУРНIЙ ЛIНIЙНIЙ МОДЕЛI . . . 1507 У гауссiвському випадку модель (1) докладно вивчено. За умови (A) асимптотичну кова- рiацiйну матрицю (AKM) трiйки оцiнок \^\beta 0, \^\beta 1, \^\sigma 2 \delta виписав L. J. Gleser [4], який встановив також асимптотичну ефективнiсть оцiнок. За умови (B) AKM трiйки оцiнок \^\beta 0, \^\beta 1, \^\sigma 2 \epsilon знайшли C.-L. Cheng та J. W. Van Ness [5]. Опишемо коротко будову статтi. У пунктi 2 ми розглядаємо випадок (A) для моделi (3), виписуємо ОМП для п’яти параметрiв моделi, а також незсунену оцiночну функцiю. Далi ми наводимо умови сукупної асимптотичної нормальностi оцiнок та видiляємо групи асимптотич- но незалежних оцiнок. У пунктi 3 те ж саме робимо для моделi (3) у випадку (B). У пунктах 2, 3 порiвнюються моделi (1) та (3) щодо груп асимптотично незалежних оцiнок. Пункт 4 пiдсумовує отриманi результати. Доведення основного результату — теореми про асимптотичнi незалежнi оцiнки — мiститься в додатку. Використовуються такi позначення. Символи \sansE , \sansD позначають математичне сподiвання та дисперсiю, \bfc \bfo \bfv — коварiацiйну матрицю випадкового вектора. Верхнiй iндекс \top означає транспонування; в роботi всi вектори є векторами-стовпчиками. Для квадратної матрицi A по- значаємо A - \top = (A - 1)\top . Збiжностi з iмовiрнiстю 1 та за розподiлом позначаються вiдповiдно P1 - \rightarrow , d - \rightarrow . Послiдовнiсть випадкових величин, яка за ймовiрнiстю збiгається до 0, позначається через op(1). 2. Оцiнювання за вiдомого вiдношення дисперсiй. Наступнi припущення про модель (1) забезпечують консистентнiсть та асимптотичну нормальнiсть оцiнок у випадку (A). (i) Випадковi величини \xi , \varepsilon , \delta є незалежними з додатними дисперсiями \sigma 2 \xi , \sigma 2 \varepsilon , \sigma 2 \delta вiдпо- вiдно, до того ж \sansE \varepsilon = \sansE \delta = 0. (ii) Вiдомим є число \lambda = \sigma 2 \varepsilon /\sigma 2 \delta . (iii) Випадковi величини \xi , \varepsilon , \delta мають скiнченнi четвертi моменти. (iv) Розподiл похибки \varepsilon не зосереджений на двох точках. Позначимо \mu x = \sansE x, \mu y = \sansE y. Розглянемо незалежнi копiї (2) моделi (1). За спостереженнями (yi, xi), 1 \leq i \leq n, оцiнюємо вектор \theta := (\mu x, \beta 0, \beta 1, \sigma 2 \delta , \sigma 2 \xi ) \top або, за iншої параметризацiї, вектор \tau := (\mu x, \mu y, \beta 1, \sigma 2 \delta , \sigma 2 \xi ) \top . (6) 2.1. Формули для оцiнок та оцiночна функцiя. На основi функцiональної iнварiантностi ОМП [6] (глава18) у книзi [3, с. 14, 15] виписано систему з п’яти рiвнянь для ОМП вектора \theta за умов (i), (ii), а також у припущеннi про нормальнiсть базових величин \xi , \varepsilon , \delta . Для цього першi два моменти вектора (x, y)\top виражаються через параметри моделi, пiсля чого замiсть цих моментiв пiдставляються вибiрковi середнi, емпiричнi дисперсiї (4) та емпiрична коварiацiя (5). Отримана система розв’язується вiдносно \theta \in \Theta := \BbbR 3 \times (0,+\infty )2. Наступнi оцiнки є розв’язками системи з iмовiрнiстю 1 при n \geq n0(\omega ) (див. [3, с. 16, 17]): ISSN 1027-3190. Укр. мат. журн., 2016, т. 68, № 11 1508 О. Г. КУКУШ, Я. В. ЦАРЕГОРОДЦЕВ, С. В. ШКЛЯР \^\mu x = \=x, (7) \^\beta 1 = \left\{ syy - \lambda sxx + \sqrt{} (syy - \lambda sxx)2 + 4s2xy 2sxy , якщо sxy \not = 0, 0, якщо sxy = 0, (8) \^\beta 0 = \=y - \^\beta 1\=x, (9) \^\sigma 2 \delta = syy - 2\^\beta 1sxy + \^\beta 2 1sxx \lambda + \^\beta 2 1 , (10) \^\sigma 2 \xi = sxx - \^\sigma 2 \delta . Iз вищезгаданої властивостi функцiональної iнварiантностi ОМП випливає, що для ОМП вектора (6) використовуються цi самi статистики, тiльки (9) замiнено оцiнкою \^\mu y = \=y. (11) Далi ми вивчаємо асимптотичнi властивостi побудованих оцiнок \^\tau := (\^\mu x, \^\mu y, \^\beta 1, \^\sigma 2 \delta , \^\sigma 2 \xi ) \top та \^\theta := (\^\mu x, \^\beta 0, \^\beta 1, \^\sigma 2 \delta , \^\sigma 2 \xi ) \top без припущення про нормальнiсть базових випадкових величин моделi. Запишемо оцiночну функцiю, що вiдповiдає оцiнцi \^\tau . Зазначимо, що оцiнка (8) задовольняє квадратне рiвняння \^\beta 2 1sxy + \^\beta 1(\lambda sxx - syy) - \lambda sxy = 0. Задамо тепер оцiночну вектор-функцiю s = s(\tau ;x, y) з компонентами s(\mu x) = x - \mu x, s(\mu y) = y - \mu y, (12) s(\beta 1) = \beta 2 1(x - \mu x)(y - \mu y) + \beta 1(\lambda (x - \mu x) 2 - (y - \mu y) 2) - \lambda (x - \mu x)(y - \mu y), s(\sigma 2 \delta ) = (y - \mu y) 2 - 2\beta 1(x - \mu x)(y - \mu y) + \beta 2 1(x - \mu x) 2 - \sigma 2 \delta (\lambda + \beta 2 1), (13) s(\sigma 2 \xi ) = (x - \mu x) 2 - \sigma 2 \delta - \sigma 2 \xi . Оцiнка \^\tau задовольняє рiвняння n\sum i=1 s(\^\tau ;xi, yi) = 0. (14) 2.2. Консистентнiсть та асимптотична нормальнiсть оцiнок. Теорема 1. 1. За умов (i), (ii) оцiнка \^\tau строго консистентна, тобто \^\tau P1 - \rightarrow \tau , n \rightarrow \infty . 2. За умов (i) – (iii) оцiнка \^\tau асимптотично нормальна, тобто для деякої матрицi \Sigma (\tau ) = = \Sigma (\tau )(\tau ) виконується \surd n(\^\tau - \tau ) d - \rightarrow N(0,\Sigma (\tau )). (15) ISSN 1027-3190. Укр. мат. журн., 2016, т. 68, № 11 АСИМПТОТИЧНО НЕЗАЛЕЖНI ОЦIНКИ У СТРУКТУРНIЙ ЛIНIЙНIЙ МОДЕЛI . . . 1509 3. За умов (i) – (iv) АКМ \Sigma (\tau ) є невиродженою. Доведення. 1. Строгу консистентнiсть оцiнки \^\beta 1 доведено в [2, с. 90]. За цiєю ж схемою на основi явних формул для \^\tau доводиться строга консистентнiсть iнших компонент \^\tau . 2. Оцiнка \^\tau задається оцiночним рiвнянням (14). Безпосередньо перевiряється, що оцiночна функцiя s(\tau ;x, y) є незсуненою, тобто \sansE \tau s(\tau ;x, y) = 0. (16) Розглянемо двi матрицi V := - \sansE \tau \partial s(\tau ;x, y) \partial \tau \top , B := \bfc \bfo \bfv (s(\tau ;x, y)). (17) Матриця B коректно визначена, оскiльки за умовою (iii) iснують скiнченнi четвертi моменти випадкових величин x - \mu x, y - \mu y. Матриця V є нижньо-трикутною. Розглянемо її дiагональний елемент - \sansE \tau \partial s(\beta 1) \partial \beta 1 = - [2\beta 1 \cdot \beta 1\sigma 2 \xi + \lambda (\sigma 2 \xi + \sigma 2 \delta ) - (\beta 2 1\sigma 2 \xi + \sigma 2 \varepsilon )] = - (\beta 2 1\sigma 2 \xi + \lambda \sigma 2 \xi ) \not = 0. Усi iншi дiагональнi елементи цiєї матрицi також вiдмiннi вiд 0. Тому V невироджена. Рiвнiсть (16), консистентнiсть \^\tau , а також невиродженiсть V дозволяють застосувати теорему 26.А з монографiї [2]. Тодi виконується (15), причому AKM \Sigma (\tau ) знаходиться за сендвiч- формулою \Sigma (\tau ) = V - 1BV - \top . (18) 3. Залишилося довести невиродженiсть B, що рiвносильно лiнiйнiй незалежностi п’яти випадкових величин — компонент оцiночної функцiї s(\tau ;x, y) для iстинного значення пара- метра \tau . Розглянемо випадковий вектор z := \bigl( x - \mu x, y - \mu y, (x - \mu x) 2, (x - \mu x)(y - \mu y), (y - \mu y) 2 \bigr) \top . (19) Оцiночна функцiя має вигляд s(\tau ;x, y) = Tz + a, де T = T (\tau ) — невироджена квадратна матриця, a = a(\tau ) — невипадковий вектор. Тому достатньо довести, що жодна лiнiйна комбiнацiя компонент вектора (19) не є константою. Нехай для деяких дiйсних чисел a11, a12, a22, a1, a2, a3 з iмовiрнiстю 1 виконується F := a11(x - \mu x) 2 + a12(x - \mu x)(y - \mu y) + a22(y - \mu y) 2 + a1(x - \mu x) + a2(y - \mu y) + a3 = 0. Введемо центровану випадкову величину \rho = \xi - \mu x. Тодi x - \mu x = \rho + \delta , y - \mu y = \beta 1\rho + \varepsilon . ISSN 1027-3190. Укр. мат. журн., 2016, т. 68, № 11 1510 О. Г. КУКУШ, Я. В. ЦАРЕГОРОДЦЕВ, С. В. ШКЛЯР Розглянемо два випадки. Почнемо з випадку, коли розподiл похибки \delta не зосереджений у двох точках. Маємо 0 = \sansE [F (\rho , \varepsilon , \delta ) | \delta ] = a11\delta 2 + a1\delta + c3, де c3 = a11\sigma 2 \xi +a12\beta 1\sigma 2 \xi +a22(\beta 2 1\sigma 2 \xi +\sigma 2 \varepsilon )+a3 . Тому a11 = a1 = 0. Аналогiчно, використовуючи умову (iv), отримуємо a22 = a2 = 0. Далi, 0 = \sansE [F (\rho , \varepsilon , \delta ) | \varepsilon , \delta ] = a12\delta \varepsilon + c5. Математичне сподiвання останнього виразу дорiвнює 0, тому c5 = 0. Насамкiнець 0 = = \sansD (a12\delta \varepsilon ) = a212\sigma 2 \xi \sigma 2 \varepsilon , звiдки a12 = 0. Тодi останнiй коефiцiєнт a3 = 0. Перейдемо до другого випадку, коли розподiл похибки \delta зосереджено у двох точках \delta 1 та \delta 2 . (Оскiльки \sigma 2 \delta > 0, то розподiл \delta не може бути зосередженим в однiй точцi.) Маємо \sansP (\delta = \delta i) > 0, i = 1, 2, та \delta 1 \not = \delta 2 . Оскiльки \delta , \varepsilon та \rho незалежнi в сукупностi, то умовнi розподiли [F (\rho , \varepsilon , \delta ) | \delta = \delta 1] та [F (\rho , \varepsilon , \delta ) | \delta = \delta 2] такi самi, як i маргiнальнi розподiли випадкових величин F (\rho , \varepsilon , \delta 1) та F (\rho , \varepsilon , \delta 2). Тому з рiвностi F (\rho , \varepsilon , \delta ) = 0 майже напевно (м. н.) випливає \sansP [F (\rho , \varepsilon , \delta ) = 0 | \delta = \delta 1] = \sansP [F (\rho , \varepsilon , \delta ) = 0 | \delta = \delta 2] = 1, F (\rho , \varepsilon , \delta 1) = F (\rho , \varepsilon , \delta 2) = 0 м. н. З iмовiрнiстю 1 маємо 0 = F (\rho , \varepsilon , \delta 1) - F (\rho , \varepsilon , \delta 2) = = (\delta 1 - \delta 2)((2a11 + a12\beta 1)\rho + a12\varepsilon + a11(\delta 1 + \delta 2) + a1), (2a11 + a12\beta 1)\rho + a12\varepsilon + a11(\delta 1 + \delta 2) + a1 = 0, звiдки отримуємо a12 = 0, a11 = 0, a1 = 0. Тодi 0 = F (\rho , \varepsilon , \delta ) = a22(\beta 1\rho + \varepsilon 2) + a2(\beta 1\rho + \varepsilon ) + a3 м. н. Оскiльки розподiл \varepsilon не зосереджено у двох точках, то розподiл \beta 1\rho + \varepsilon також не зосереджено у двох точках. Тому a22 = a2 = a3 = 0. Жодна нетривiальна лiнiйна комбiнацiя компонент векторiв (19) не є константою, що i доводить невиродженiсть \Sigma (\tau ). Теорему 1 доведено. Зауваження 1. Вилучити умову (iv) не можна. Якщо \beta 1 = 0 i розподiл \varepsilon зосереджено у двох точках \varepsilon 1 та \varepsilon 2, то матриця B, а отже i матриця \Sigma (\tau ), є виродженою. Справдi, позначимо v = (0, \varepsilon 1+\varepsilon 2, 0, 0, - 1)\top та використаємо iншi позначення з доведення теореми 1. Розподiл y - \mu y зосереджено лише у двох точках: \varepsilon 1 та \varepsilon 2 . Тому v\top z = \varepsilon 1\varepsilon 2 м. н., причому \varepsilon 1\varepsilon 2 є невипадковим числом. При iстинному значеннi параметра \tau маємо v\top T - 1s(\tau ;x, y) = v\top z+a = = \varepsilon 1\varepsilon 2 + a м. н., звiдки отримуємо, що матриця B = \bfc \bfo \bfv (s(\tau ;x, y)) є виродженою. Наслiдок 1. 1. За умов (i), (ii) оцiнка \^\theta строго консистентна, тобто \^\theta P1 - \rightarrow \theta , n \rightarrow \infty . 2. За умов (i) – (iii) оцiнка \^\theta асимптотично нормальна, тобто для деякої матрицi \Sigma (\theta ) = = \Sigma (\theta )(\theta ) виконується \surd n(\^\theta - \theta ) d - \rightarrow N(0,\Sigma (\theta )). (20) ISSN 1027-3190. Укр. мат. журн., 2016, т. 68, № 11 АСИМПТОТИЧНО НЕЗАЛЕЖНI ОЦIНКИ У СТРУКТУРНIЙ ЛIНIЙНIЙ МОДЕЛI . . . 1511 3. За умов (i) – (iv) АКМ \Sigma (\theta ) є невиродженою. Доведення. 1. За посиленим законом великих чисел для оцiнки (11) маємо \^\mu y = \=y P1 - \rightarrow \sansE y = \mu y, n \rightarrow \infty . Збiжнiсть iнших компонент оцiнки \^\theta встановлено в теоремi 1 (твердження 1). 2, 3. Вектори \theta та \tau пов’язанi так: \theta = f(\tau ) = (\tau 1, \tau 2 - \tau 1\tau 3, \tau 3, \tau 4, \tau 5) \top . Маємо також \^\theta = f(\^\tau ), матриця Якобi \partial f \partial \tau \top є невиродженою. За умов (i) – (iii) iз збiжностi (15) згiдно з \delta -методом випливає шукана збiжнiсть (20), iз AKM \Sigma (\theta ) = \Sigma (\theta )(\theta ) = \partial f(\tau ) \partial \tau \top \Sigma (\tau )(\tau ) \biggl( \partial f(\tau ) \partial \tau \top \biggr) \top . Як стверджується в теоремi 1 (твердження 3), за умов (i) – (iv) матриця \Sigma (\tau ) невироджена, тож матриця \Sigma (\theta ) також невироджена як добуток невироджених матриць. Наслiдок 1 доведено. 2.3. Асимптотично незалежнi оцiнки. Розглянемо довiльну консистентну та асимптотич- но нормальну оцiнку \^\alpha = (\^\alpha 1, \^\alpha 2) \top параметра \alpha = (\alpha 1, \alpha 2) \top \in \BbbR 2, тобто при необмеженому зростаннi обсягу вибiрки n виконується \surd n(\^\alpha - \alpha ) d - \rightarrow N(0,\Sigma (\alpha )), \Sigma (\alpha ) = (s (\alpha ) ij )2i,j=1. Оцiнки \^\alpha 1 та \^\alpha 2 називаються асимптотично незалежними, якщо s (\alpha ) 12 = 0, яким би не було iстинне значення параметра \alpha . Нехай \^\alpha , \^\beta — консистентнi оцiнки параметрiв \alpha \in \BbbR p та \beta \in \BbbR q, побудованi за однiєю вибiркою, до того ж \surd n \Biggl( \^\alpha - \alpha \^\beta - \beta \Biggr) d - \rightarrow N(0,\Sigma (\alpha \beta )). Оцiнки \^\alpha та \^\beta називаються асимптотично незалежними, якщо будь-яка компонента \^\alpha i оцiнки \^\alpha асимптотично незалежна з будь-якою компонентою \^\beta j оцiнки \^\beta . Для \^\alpha , \^\beta маємо \surd n \Biggl( \^\alpha - \alpha \^\beta - \beta \Biggr) d - \rightarrow \gamma = \Biggl( \gamma \alpha \gamma \beta \Biggr) \sim N(0,\Sigma (\alpha \beta )), де \gamma \alpha , \gamma \beta — незалежнi гауссiвськi вектори, розподiленi в \BbbR p та \BbbR q вiдповiдно, до того ж матриця \Sigma (\alpha \beta ) має блочно-дiагональну структуру: \Sigma (\alpha \beta ) = \Biggl( \Sigma (\alpha ) 0 0 \Sigma (\beta ) \Biggr) , \Sigma (\alpha ) \in \BbbR p\times p. На основi асимптотично незалежних оцiнок \^\alpha , \^\beta довiрчу область для сукупного параметра (\alpha \top , \beta \top )\top можна будувати як декартiв добуток довiрчих областей параметрiв \alpha та \beta . Введемо подальшi обмеження на модель спостережень: ISSN 1027-3190. Укр. мат. журн., 2016, т. 68, № 11 1512 О. Г. КУКУШ, Я. В. ЦАРЕГОРОДЦЕВ, С. В. ШКЛЯР (v) \sansE \varepsilon 3 = \sansE \delta 3 = 0; (vi) \sansE \varepsilon 4 = 3\sigma 4 \varepsilon , \sansE \delta 4 = 3\sigma 4 \delta ; (vii) \sansE (\xi - \mu x) 3 = 0. Умова (v) означає, що для всiх похибок коефiцiєнт асиметрiї дорiвнює 0; за умови (vii) коефiцiєнт асиметрiї регресора \xi дорiвнює 0. За умови (vi) куртозис \beta (\varepsilon ) 2 := \sansE (\varepsilon - \sansE \varepsilon )4 (\sansD \varepsilon )4 = 3, як i для гауссiвської випадкової величини, i таким же за величиною буде куртозис \beta (\delta ) 2 похиб- ки \delta . Сформулюємо основний результат статтi. Теорема 2. Нехай виконано умови (i) – (iii). 1. За умови (v) пара оцiнок (\^\mu x, \^\mu y) асимптотично незалежна вiд пари ( \^\beta 1, \^\sigma 2 \delta ). 2. За умов (v), (vii) пара оцiнок (\^\mu x, \^\mu y) асимптотично незалежна вiд \^\sigma 2 \xi . 3. За умови (vi) оцiнки \^\beta 1 та \^\sigma 2 \delta асимптотично незалежнi. Доведення теореми мiститься в додатку. Наслiдок 2. Нехай виконано умови (i) – (iii), (v), (vi). Тодi трiйка оцiнок (\^\mu x, \^\beta 0, \^\beta 1) асимп- тотично незалежна вiд \^\sigma 2 \delta . Доведення. З огляду на перше та третє твердження теореми 2 залишилося пояснити асимп- тотичну незалежнiсть \^\beta 0 та \^\sigma 2 \delta . За першим та третiм твердженнями теореми 2 оцiнка \^u := (\^\mu x, \^\mu y, \^\beta 1) \top асимптотично незалежна вiд \^\sigma 2 \delta . Тому оцiнка \^\beta 0 = \^\mu y - \^\mu x \^\beta 1, як полiном вiд \^u, буде також асимптотично незалежною вiд \^\sigma 2 \delta . Як бачимо, за умов наслiдку 2 першi чотири компоненти \^\tau розбиваються на 3 групи асимптотично незалежних оцiнок: (\^\mu x, \^\mu y) \top , \^\beta 1, \^\sigma 2 \delta , тодi як за цих умов першi чотири компо- ненти \^\theta розбиваються лише на двi групи асимптотично незалежних оцiнок: (\^\mu x, \^\beta 0, \^\beta 1) \top , \^\sigma 2 \delta (тут у першiй групi \^\mu x та \^\beta 1 асимптотично незалежнi, проте \^\beta 0 не є асимптотично незалеж- ною анi вiд \^\mu x, анi вiд \^\beta 1). Таким чином, параметризацiя (3) має певнi переваги у порiвняннi з класичною параметризацiєю (1). Наслiдок 2 доведено. 2.4. Побудова асимптотичної довiрчої областi для (\^\bfitmu \bfitx , \^\bfitmu \bfity , \^\bfitbeta 1) \top . У цьому пiдпунктi вважаємо, що виконано умови (i) – (v). На основi асимптотичної незалежностi пари (\^\mu x, \^\mu y) \top вiд \^\beta 1 побудуємо довiрчу область для вектора u := (\mu x, \mu y, \beta 1) \top . Оцiнцi \^u вiдповiдає оцiночна функцiя s(u) := \bigl( s(\mu x), s(\mu y), s(\beta 1) \bigr) \top . За другим та третiм твердженнями теореми 1 маємо \surd n(\^u - u) d - \rightarrow N(0,\Sigma (u)), де AKM \Sigma (u) є невиродженою, \Sigma (u) = (A(u)) - 1B(u)(A(u)) - \top , (21) B(u) = \bfc \bfo \bfv (s(u)(u;x, y)), A(u) = - \sansE u \partial s(u)(u;x, y) \partial u\top . ISSN 1027-3190. Укр. мат. журн., 2016, т. 68, № 11 АСИМПТОТИЧНО НЕЗАЛЕЖНI ОЦIНКИ У СТРУКТУРНIЙ ЛIНIЙНIЙ МОДЕЛI . . . 1513 Внаслiдок вищезгаданої асимптотичної незалежностi матриця \Sigma (u) є блочно-дiагональною: \Sigma (u) = \mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g} \Bigl( \Sigma (\mu x,\mu y),\Sigma (\beta 1) \Bigr) , (22) де \Sigma (\mu x,\mu y) — AKM оцiнки (\^\mu x, \^\mu y) \top , а \Sigma (\beta 1) — асимптотична дисперсiя оцiнки \^\beta 1. Лема 1. Нехай виконано умови (i) – (iii). Тодi \surd n( \^\beta 1 - \beta 1) d - \rightarrow N \Bigl( 0,\Sigma (\beta 1) \Bigr) , \Sigma (\beta 1) = \upsilon 2 \sigma 4 \xi (\beta 2 1 + \lambda )2 , (23) \upsilon 2 = \sigma 2 \xi \sigma 2 \delta (\beta 2 1 + \lambda )3 + (\lambda - \beta 2 1) 2\sigma 2 \varepsilon \sigma 2 \delta + \beta 2 1 \bigl( \sansD (\varepsilon 2) + \lambda 2\sansD (\delta 2) \bigr) . (24) Доведення. Для нормованої оцiнки справедливим є розклад (2.236) з [2]: \surd n( \^\beta 1 - \beta 1) = \surd n\Lambda n \sigma 2 \xi (\beta 2 1 + \lambda ) + op(1), \Lambda n = (\beta 2 1 + \lambda )\rho \varepsilon + \beta 1 \bigl( \varepsilon 2 - \sigma 2 \varepsilon \bigr) - \beta 1(\beta 2 1 + \lambda )\rho \delta - \beta 1\lambda \bigl( \delta 2 - \sigma 2 \delta \bigr) + (\lambda - \beta 2 1)\delta \varepsilon . (25) Тут \rho = \xi - \mu x. (В [2] цей розклад отримано при \beta 1 \not = 0, але вiн справедливий також i при \beta 1 = 0.) Згiдно з центральною граничною теоремою маємо \surd n \Bigl( \rho \varepsilon , \varepsilon 2 - \sigma 2 \varepsilon , \rho \delta , \delta 2 - \sigma 2 \delta , \delta \varepsilon \Bigr) \top d - \rightarrow \gamma = (\gamma 1, . . . , \gamma ) \top \sim N(0, S), S = \mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g} \bigl( \sigma 2 \xi \sigma 2 \varepsilon ,\sansD (\varepsilon 2), \sigma 2 \xi \sigma 2 \delta ,\sansD (\delta 2), \sigma 2 \delta \sigma 2 \varepsilon \bigr) . Тодi чисельник у (25) збiгається за розподiлом до випадкової величини (\beta 2 1 + \lambda )\gamma 1 + \beta 1\gamma 2 - \beta 1(\beta 2 1 + \lambda )\gamma 3 - \beta 1\lambda \gamma 4 + (\lambda - \beta 2 1)\gamma 5 \sim N(0, \upsilon 2), \upsilon 2 = (\beta 2 1 + \lambda )2s11 + \beta 2 1s22 + \beta 2 1(\beta 2 1 + \lambda )2s33 + \beta 2 1\lambda 2s44 + (\lambda - \beta 2 1) 2s55. Це збiгається з виразом (24). Тодi за лемою Слуцького з розкладу (25) випливає (23). Лему 1 доведено. Як бачимо, матриця \Sigma (u) виражається, зокрема, через четвертi моменти похибок \sansE \varepsilon 4 та \sansE \delta 4, якi не можна оцiнити консистентно без додаткових припущень про розподiли похибок. Тому сендвiч-формула (21) не дозволяє побудувати консистентну оцiнку для \Sigma (u) за форму- лою \^\Sigma (u) = \Sigma (u)(\^\tau ). Проте це можна зробити, скориставшись рекомендацiєю [7, с. 368, 369]. Сендвiч-оцiнка для \Sigma (u) має вигляд \^\Sigma (u) = ( \^A(u)) - 1 \^B(u)( \^A(u)) - \top , \^B(u) = 1 n n\sum i=1 s(u)(\^\tau ;xi, yi)(s (u)(\^\tau ;xi, yi)) \top , \^A(u) = - 1 n n\sum i=1 \partial s(u)(\^\tau ;xi, yi) \partial u\top . За умов (i) – (v) виконується \^\Sigma (u) P1 - \rightarrow \Sigma (u), тому з iмовiрнiстю 1 при n \geq n0(\omega ) сендвiч-оцiнка стає додатно визначеною матрицею. ISSN 1027-3190. Укр. мат. журн., 2016, т. 68, № 11 1514 О. Г. КУКУШ, Я. В. ЦАРЕГОРОДЦЕВ, С. В. ШКЛЯР Нехай для даної вибiрки \^\Sigma (u) є додатно визначеною. Маємо строго консистентну оцiнку блокiв з розкладу (22): \^\Sigma (\mu x,\mu y) = \Bigl( \^\Sigma (u) ij \Bigr) 2 i,j=1 , \^\Sigma (\beta 1) = \^\Sigma (u) 33 . (26) Нехай 1 - \alpha — заданий рiвень довiри. На основi оцiнок (26) будуємо асимптотичний довiрчий елiпсоїд E(\mu x,\mu y) для вектора (\mu x, \mu y) \top iз рiвнем довiри \surd 1 - \alpha та асимптотичний довiрчий iнтервал I(\beta 1) для \beta 1 iз тим самим рiвнем довiри \surd 1 - \alpha . Тодi множина E(u) := E(\mu x,\mu y) \times I(\beta 1) (27) буде асимптотичною довiрчою областю для вектора u iз рiвнем довiри 1 - \alpha . Довiрча область (27) має природне геометричне застосування. Ми хочемо в системi ко- ординат O\xi y побудувати регресiйну пряму y - \mu y = \beta 1(\xi - \mu x) навколо оцiненої прямої y - \^\mu y = \^\beta 1(\xi - \^\mu x). Точка (\mu x, \mu y) береться з елiпсоїда E(\mu x,\mu y), а кутовий коефiцiєнт \beta 1 — з iнтервалу I(\beta 1). Усi такi прямi заповнюють асимптотичну довiрчу область для положення iстинної регресiйної прямої. 3. Оцiнювання за вiдомої дисперсiї \bfitsigma 2 \bfitdelta . У цьому пунктi замiсть умови (ii) ми вимагати- мемо наступне: (viii) вiдомою є дисперсiя \sigma 2 \delta . Ми маємо незалежнi копiї (2) моделi (1). За спостереженнями (yi, xi), 1 \leq i \leq n, оцiнюємо вектор \alpha := (\mu x, \beta 0, \beta 1, \sigma 2 \varepsilon , \sigma 2 \xi ) \top або, за iншої параметризацiї, вектор \upsilon := (\mu x, \mu y, \beta 1, \sigma 2 \varepsilon , \sigma 2 \xi ) \top . Нашi мiркування подiбнi до наведених у пунктi 2, тому наводити їх не будемо. Для параметрiв \mu x та \mu y розглядаються оцiнки (7), (11). Виправлена оцiнка найменших квадратiв \^\beta 1 задається формулою \^\beta 1 = \left\{ sxy sxx - \sigma 2 \delta , якщо sxx \not = \sigma 2 \delta , +\infty , якщо sxx = \sigma 2 \delta . Оцiнка \^\beta 0 задається рiвнiстю (9). Далi, \^\sigma 2 \varepsilon = syy - \^\beta 1sxy, \^\sigma 2 \xi = sxx - \sigma 2 \delta . Оцiнка \^\alpha := (\^\mu x, \^\beta 0, \^\beta 1, \^\sigma 2 \varepsilon , \^\sigma 2 \xi ) \top з iмовiрнiстю 1 при n \geq n0(\omega ) збiгається з ОМП вектора \alpha в гауссiвськiй моделi з умовами (i), (viii) (див. [3, с. 18]). Це саме стосується оцiнки \^\upsilon := := (\^\mu x, \^\mu y, \^\beta 1, \^\sigma 2 \varepsilon , \^\sigma 2 \xi ) \top вектора \upsilon . Ми вивчатимемо цi оцiнки без умови гаусcовостi. Оцiнцi \^\upsilon вiдповiдає векторна оцiночна функцiя s(\upsilon )(\upsilon ;x, y) з компонентами (12), а також s(\beta 1) = (x - \mu x)(y - \mu y) - \beta 1((x - \mu x) 2 - \sigma 2 \delta ), ISSN 1027-3190. Укр. мат. журн., 2016, т. 68, № 11 АСИМПТОТИЧНО НЕЗАЛЕЖНI ОЦIНКИ У СТРУКТУРНIЙ ЛIНIЙНIЙ МОДЕЛI . . . 1515 s(\sigma 2 \varepsilon ) = (y - \mu y) 2 - \beta 1(x - \mu x)(y - \mu y) - \sigma 2 \varepsilon ; остання компонента s(\sigma 2 \xi ) задається рiвнiстю (13). Тодi м. н. при n \geq n0(\omega ) оцiнка \^\upsilon задоволь- няє рiвняння n\sum i=1 s(\upsilon )(\^\upsilon ;xi, yi) = 0. Теорема 3. 1. За умов (i), (viii) оцiнка \^\upsilon строго консистентна, тобто \^\upsilon P1 - \rightarrow \upsilon , n \rightarrow \infty . 2. За умов (i), (iii), (viii) оцiнка \^\upsilon асимптотично нормальна, тобто для деякої матрицi \Sigma (\upsilon ) = \Sigma (\upsilon )(\upsilon ) виконується \surd n(\^\upsilon - \upsilon ) d - \rightarrow N(0,\Sigma (\upsilon )). 3. За умов (i), (iii), (iv), (viii) АКМ \Sigma \upsilon є невиродженою. Наслiдок 3. Теорема 3 залишається справедливою за тих же умов iз замiною \^\upsilon на \^\alpha , \upsilon на \alpha та \Sigma (\upsilon ) на \Sigma (\alpha ). Теорема 4. Нехай виконано умови (i), (viii). 1. За умови (v) пара оцiнок (\^\mu x, \^\mu y) асимптотично незалежна вiд пари ( \^\beta 1, \^\sigma 2 \varepsilon ). 2. За умов (v), (vii) пара оцiнок (\^\mu x, \^\mu y) асимптотично незалежна вiд \^\sigma 2 \xi . 3. Якщо \xi , \varepsilon , \delta є гауссiвськими, то оцiнки \^\beta 1 та \^\sigma 2 \varepsilon не є асимптотично незалежними. Третє твердження випливає з того, що сумiсна AKM оцiнок \^\beta 0, \^\beta 1, \^\sigma 2 \varepsilon є заповненою, тобто не мiстить тотожних нулiв [3] (теорема 2.3). При параметризацiї (3) за умов (i), (v), (vii), (viii) векторна оцiнка \^\upsilon розбивається на двi групи асимптотично незалежних оцiнок: (\^\mu x, \^\mu y) та ( \^\beta 1, \^\sigma 2 \varepsilon , \^\sigma 2 \xi ). При звичайнiй параметриза- цiї (1) оцiнку \^\alpha неможливо розбити на двi групи асимптотично незалежних оцiнок. У цьому є перевага запропонованої нової параметризацiї у випадку вiдомого \sigma 2 \delta . 4. Висновки. У лiнiйнiй структурнiй моделi з класичними похибками вимiрювання (1) ми запропонували нову параметризацiю (3), де \mu y = \sansE y, \mu x = \sansE x. Ми вивчали такi оцiнки п’яти параметрiв моделi, якi у випадку гауссiвських розподiлiв \xi , \varepsilon , \delta є оцiнками максимальної прав- доподiбностi. Нова параметризацiя дозволяє видiлити бiльше груп асимптотично незалежних оцiнок, що спрощує побудову асимптотичної довiрчої областi для векторного параметра (див. пiдпункт 2.4). Отриманi результати можна поширити на множинну модель з похибками вимiрювання: y = \beta 0 + \beta \top 1 \xi + \varepsilon , x = \xi + \delta , де \xi — векторний регресор, \beta 1 — векторний параметр регресiї. Додаток А. A1 . Доведення твердження 1 теореми 1. Будемо використовувати форму- ли (18), (17) для AKM оцiнки \^\tau . Матриця V розпадається на два блоки: V = \mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g} \Bigl( V (\mu x,\mu y), V (\beta 1,\sigma 2 \delta ,\sigma 2 \xi ) \Bigr) , V (\mu x,\mu y) \in \BbbR 2\times 2. (28) Далi, безпосереднiй пiдрахунок показує, що за умов (i), (iii), (v) при iстинних значеннях пара- метрiв кожне s(\mu x)(\tau ;x, y) та s(\mu y)(\tau ;x, y) некорельоване з s(\beta 1)(\tau ;x, y) та s(\sigma 2 \delta )(\tau ;x, y). Для оцiнки \^\tau - 5 := \bigl( \^\mu x, \^\mu y, \^\beta 1, \^\sigma 2 \delta \bigr) \top маємо AKM \Sigma (\tau - 5), що знаходиться за сендвiч-формулою \Sigma (\tau - 5) = \Bigl( V (\tau - 5) \Bigr) - 1 B(\tau - 5) \Bigl( V (\tau - 5) \Bigr) - \top . Матриця V (\tau - 5) є частиною матрицi (28), i тому ISSN 1027-3190. Укр. мат. журн., 2016, т. 68, № 11 1516 О. Г. КУКУШ, Я. В. ЦАРЕГОРОДЦЕВ, С. В. ШКЛЯР V (\tau - 5) = \mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g} \Bigl( V (\mu x,\mu y), V (\beta 1,\sigma 2 \delta ) \Bigr) . Матриця B(\tau - 5) є частиною матрицi B з формули (17), i внаслiдок зазначеної вище некорельо- ваностi певних компонент оцiночної функцiї s = s(\tau ) маємо B(\tau - 5) = \mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g} \Bigl( B(\mu x,\mu y), V (\beta 1,\sigma 2 \delta ) \Bigr) , B(\mu x,\mu y) \in \BbbR 2\times 2. Тодi \Sigma (\tau - 5) теж має блочно-дiагональну структуру: \Sigma (\tau - 5) = \mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g} \Bigl( \Sigma (\mu x,\mu y),\Sigma (\beta 1,\sigma 2 \delta ) \Bigr) , \Sigma (\mu x,\mu y) \in \BbbR 2\times 2, що i доводить асимптотичну незалежнiсть пари (\^\mu x, \^\mu y) вiд ( \^\beta 1, \^\sigma 2 \delta ). A2 . Доведення твердження 2 теореми 1. Зараз третi моменти величин \epsilon , \delta та \rho = \xi - - \mu \xi дорiвнюють нулю, отже, \sansE \tau (x - \mu x) 3 = \sansE (x - \mu x) 2(y - \mu y) 2 = 0. Тому при iстинних значеннях параметрiв s(\mu x)(\tau ;x, y) та s(\mu y)(\tau ;x, y) некорельованi з s(\sigma 2 \xi )(\tau ;x, y). Тодi, згiдно з додатком A1 , для матрицi (17) маємо B = \mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g} \Bigl( B(\mu x,\mu y), B(\beta 1,\sigma 2 \delta ,\sigma 2 \xi ) \Bigr) . (29) Iз формул (18), (28), (29) випливає блочна структура \Sigma (\tau ) : \Sigma (\tau ) = \mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g} \Bigl( \Sigma (\mu x,\mu y),\Sigma (\beta 1,\sigma 2 \delta ,\sigma 2 \xi ) \Bigr) . Це доводить шукане. A3 . Доведення твердження 3 теореми 1. Запишемо розклад, подiбний до (25), для нор- мованої оцiнки \^\sigma 2 \delta . Використовуємо розклад [2, с. 92] sxx = \sigma 2 x + rxx + op(1)\surd n , rxx = (\rho 2 - \sigma 2 \xi ) + 2\rho \delta + (\delta 2 - \sigma 2 \delta ), sxy = \beta 1\sigma 2 \xi + rxy + op(1)\surd n , rxy = \beta 1(\rho 2 - \sigma 2 \xi ) + \beta 1\delta \rho + \rho \varepsilon + \delta \varepsilon , syy = \beta 2 1\sigma 2 \xi + \sigma 2 \epsilon + ryy + op(1)\surd n , ryy = \beta 2 1(\rho 2 - \sigma 2 \xi ) + 2\beta 1\rho \varepsilon + \rho \varepsilon + (\varepsilon 2 - \sigma 2 \varepsilon ). Позначимо \Delta \^\beta 1 = \beta 1 - \^\beta 1. Iз формули (10) маємо (\^\sigma 2 \delta - \sigma 2 \delta )(\lambda + \beta 2 1) = ryy - 2(\beta 1 +\Delta \^\beta 1)sxy + (\beta 2 1 + 2\beta 1\Delta \^\beta 1)(sxx - \sigma 2 \delta ) + \beta 2 1\sigma 2 \xi + op(1)\surd n = = ryy - 2\beta 1rxy - 2\Delta \^\beta 1 \cdot \beta 1\sigma 2 \xi + \beta 2 1rxx + 2\beta 1\Delta \^\beta 1 \cdot \sigma 2 \xi + op(1)\surd n , (30) (\^\sigma 2 \delta - \sigma 2 \delta )(\lambda + \beta 2 1) = \bigl( \varepsilon 2 - \sigma 2 \varepsilon \bigr) + \beta 2 1(\delta 2 - \sigma 2 \delta ) - 2\beta 1\delta \varepsilon + 2\beta 2 1 \bigl( \rho 2 - \sigma 2 \xi \bigr) + op(1)\surd n . Згiдно з центральною граничною теоремою отримуємо ISSN 1027-3190. Укр. мат. журн., 2016, т. 68, № 11 АСИМПТОТИЧНО НЕЗАЛЕЖНI ОЦIНКИ У СТРУКТУРНIЙ ЛIНIЙНIЙ МОДЕЛI . . . 1517 \surd n \Bigl( \rho \varepsilon , \varepsilon 2 - \sigma 2 \varepsilon , \rho \delta , \delta 2 - \sigma 2 \delta , \delta \varepsilon , \rho 2 - \sigma 2 \xi \Bigr) \top d - \rightarrow \gamma = (\gamma 1, . . . , \gamma 6) \top \sim N(0, S1), S1 = \mathrm{d}\mathrm{i}\mathrm{a}\mathrm{g} \bigl( \sigma 2 \xi \sigma 2 \varepsilon ,\sansD (\varepsilon 2), \sigma 2 \xi \sigma 2 \delta ,\sansD (\delta 2), \sigma 2 \delta \sigma 2 \varepsilon ,\sansD (\rho 2) \bigr) = (Sij) 6 i,j=1. З розкладiв (25) та (30) маємо \Biggl( \surd n( \^\beta 1 - \beta 1)\sigma 2 \xi (\beta 2 1 + \lambda ) \surd n(\^\sigma 2 \delta - \sigma 2 \delta )(\lambda + \beta 2 1) \Biggr) d - \rightarrow d - \rightarrow \Biggl( (\beta 2 1 + \lambda )\gamma 1 + \beta 1\gamma 2 - \beta 1(\beta 2 1 + \lambda )\gamma 3 - \beta 1\lambda \gamma 4 + (\lambda - \beta 2 1)\gamma 5 \gamma 2 + \beta 2 1\gamma 4 - 2\beta 1\gamma 5 + 2\beta 2 1\gamma 6 \Biggr) = \Biggl( \eta 1 \eta 2 \Biggr) . З урахуванням умови (vi) одержуємо \sansE \eta 1\eta 2 = \beta 1\sansD (\varepsilon 2) - \lambda \beta 3 1 \sansD (\delta 2) + (\lambda - \beta 2 1)( - 2\beta 1)\sigma 2 \delta \sigma 2 \varepsilon = = 2\beta 1\sigma 4 \varepsilon - 2\lambda \beta 3 1\sigma 4 \delta - 2\lambda \beta 1\sigma 2 \delta \sigma 2 \varepsilon + 2\beta 3 1\sigma 2 \delta \sigma 2 \varepsilon = 0. Це i доводить асимптотичну незалежнiсть \^\beta 1 та \^\sigma 2 \delta . Лiтература 1. Wansbeek T., Meijer E. Measurement error and latent variables in econometrics // Adv. Textbooks Econ. – Amsterdam: North-Holland, 2000. – 37. 2. Масюк С. В., Кукуш О. Г., Шкляр С. В., Чепурний М. I., Лiхтарьов I. А. Моделi регресiї з похибками вимiрювання та їх застосування до оцiнювання радiацiйних ризикiв – Київ: ДIА, 2015. – 288 с. 3. Cheng C.-L., Van Ness J. W. Statistical regression with measurement error // Kendall’s Library of Statistics. – London: Arnold, 1999. – 6. 4. Gleser L. J. A note on G. R. Dolby’s unreplicated ultrastructural model // Biometrika. – 1985. – 72, №. 1. – P. 117 – 124. 5. Cheng C.-L., Van Ness J. W. On estimating linear relationships when both variables are subject to errors // J. Roy. Statist. Soc. B. – 1994. – 56, № 1. – P. 167 – 183. 6. Kendall M. G., Stuart A. The advanced theory of statistics. – 4th ed. – London: Griffin, 1979. – Vol. 2. 7. Carroll R. J., Ruppert D., Stefanski L. A., Crainiceanu C. M. Measurement error in nonlinear models. A modern perspective. – Boca Raton: Chapman and Hall/CRC, 2006. Одержано 24.05.16 ISSN 1027-3190. Укр. мат. журн., 2016, т. 68, № 11
id umjimathkievua-article-1937
institution Ukrains’kyi Matematychnyi Zhurnal
keywords_txt_mv keywords
language Ukrainian
last_indexed 2026-03-24T02:15:35Z
publishDate 2016
publisher Institute of Mathematics, NAS of Ukraine
record_format ojs
resource_txt_mv umjimathkievua/fa/637e39a35b2ac61e0918cca139e78dfa.pdf
spelling umjimathkievua-article-19372019-12-05T09:32:19Z Asymptotically independent estimators in a structural linear model with measurement errors Асимптотично незалежні оцінки у структурній лінійній моделі з похибками вимірювання Kukush, A. G. Tsaregorodtsev, Ya. V. Shklyar, S. V. Кукуш, О. Г. Царегородцев, Я. В. Шкляр, С. В. We consider a structural linear regression model with measurement errors. A new parameterization is proposed, in which the expectation of the response variable plays the role of a new parameter instead of the intercept. This enables us to form three groups of asymptotically independent estimators in the case where the ratio of variances of the errors is known and two groups of this kind if the variance of the measurement error in the covariate is known. In this case, it is not assumed that the errors and the latent variable are normally distributed. Рассматривается структурная линейная модель регрессии с ошибками измерений. Предложена новая параметризация, в которой вместо свободного члена фигурирует математическое ожидание отклика. Это позволяет выделить три группы асимптотически независимых оценок параметров в случае заданного отношения дисперсий ошибок измерений и две такие группы, когда задана дисперсия ошибки в регрессоре. При этом не требуется нормальность распределений ошибок и скрытой переменной. Institute of Mathematics, NAS of Ukraine 2016-11-25 Article Article application/pdf https://umj.imath.kiev.ua/index.php/umj/article/view/1937 Ukrains’kyi Matematychnyi Zhurnal; Vol. 68 No. 11 (2016); 1505-1517 Український математичний журнал; Том 68 № 11 (2016); 1505-1517 1027-3190 uk https://umj.imath.kiev.ua/index.php/umj/article/view/1937/919 Copyright (c) 2016 Kukush A. G.; Tsaregorodtsev Ya. V.; Shklyar S. V.
spellingShingle Kukush, A. G.
Tsaregorodtsev, Ya. V.
Shklyar, S. V.
Кукуш, О. Г.
Царегородцев, Я. В.
Шкляр, С. В.
Asymptotically independent estimators in a structural linear model with measurement errors
title Asymptotically independent estimators in a structural linear model with measurement errors
title_alt Асимптотично незалежні оцінки у структурній лінійній моделі з похибками вимірювання
title_full Asymptotically independent estimators in a structural linear model with measurement errors
title_fullStr Asymptotically independent estimators in a structural linear model with measurement errors
title_full_unstemmed Asymptotically independent estimators in a structural linear model with measurement errors
title_short Asymptotically independent estimators in a structural linear model with measurement errors
title_sort asymptotically independent estimators in a structural linear model with measurement errors
url https://umj.imath.kiev.ua/index.php/umj/article/view/1937
work_keys_str_mv AT kukushag asymptoticallyindependentestimatorsinastructurallinearmodelwithmeasurementerrors
AT tsaregorodtsevyav asymptoticallyindependentestimatorsinastructurallinearmodelwithmeasurementerrors
AT shklyarsv asymptoticallyindependentestimatorsinastructurallinearmodelwithmeasurementerrors
AT kukušog asymptoticallyindependentestimatorsinastructurallinearmodelwithmeasurementerrors
AT caregorodcevâv asymptoticallyindependentestimatorsinastructurallinearmodelwithmeasurementerrors
AT šklârsv asymptoticallyindependentestimatorsinastructurallinearmodelwithmeasurementerrors
AT kukushag asimptotičnonezaležníocínkiustrukturníjlíníjníjmodelízpohibkamivimírûvannâ
AT tsaregorodtsevyav asimptotičnonezaležníocínkiustrukturníjlíníjníjmodelízpohibkamivimírûvannâ
AT shklyarsv asimptotičnonezaležníocínkiustrukturníjlíníjníjmodelízpohibkamivimírûvannâ
AT kukušog asimptotičnonezaležníocínkiustrukturníjlíníjníjmodelízpohibkamivimírûvannâ
AT caregorodcevâv asimptotičnonezaležníocínkiustrukturníjlíníjníjmodelízpohibkamivimírûvannâ
AT šklârsv asimptotičnonezaležníocínkiustrukturníjlíníjníjmodelízpohibkamivimírûvannâ