Asymptotic normality of M-estimates in the classical nonlinear regression model

Sufficient conditions are obtained for the asymptotic normality of M-estimates of the unknown parameters of nonlinear regression models with discrete time and independent identically distributed errors of observations.

Gespeichert in:
Bibliographische Detailangaben
Datum:2008
Hauptverfasser: Ivanov, O. V., Orlovs’kyi, I. V., Іванов, О. В., Орловський, І. В.
Format: Artikel
Sprache:Ukrainisch
Englisch
Veröffentlicht: Institute of Mathematics, NAS of Ukraine 2008
Online Zugang:https://umj.imath.kiev.ua/index.php/umj/article/view/3262
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Назва журналу:Ukrains’kyi Matematychnyi Zhurnal
Завантажити файл: Pdf

Institution

Ukrains’kyi Matematychnyi Zhurnal
_version_ 1860509318806241280
author Ivanov, O. V.
Orlovs’kyi, I. V.
Іванов, О. В.
Орловський, І. В.
author_facet Ivanov, O. V.
Orlovs’kyi, I. V.
Іванов, О. В.
Орловський, І. В.
author_sort Ivanov, O. V.
baseUrl_str https://umj.imath.kiev.ua/index.php/umj/oai
collection OJS
datestamp_date 2020-03-18T19:49:31Z
description Sufficient conditions are obtained for the asymptotic normality of M-estimates of the unknown parameters of nonlinear regression models with discrete time and independent identically distributed errors of observations.
first_indexed 2026-03-24T02:39:12Z
format Article
fulltext УДК 519.21 О. В. Iванов, I. В. Орловський (Нац. техн. ун-т України „КПI”, Київ) АСИМПТОТИЧНА НОРМАЛЬНIСТЬ M -ОЦIНОК У КЛАСИЧНIЙ НЕЛIНIЙНIЙ МОДЕЛI РЕГРЕСIЇ The nonlinear regression model with discrete time and independent identically distributed observation errors is considered. Sufficient conditions for the asymptotic normality of M -estimates are obtained. Получены достаточные условия асимптотической нормальности M -оценок неизвестных парамет- ров нелинейных моделей регрессии с дискретным временем и независимыми одинаково распреде- ленными погрешностями наблюдений. Вступ. Кiлькiсть робiт, що стосуються M -оцiнок у класичних регресiйних мо- делях, є достатньо великою. Застосування M -оцiнок у моделях лiнiйного регре- сiйного аналiзу з незалежними похибками спостережень наведено в пiонерських роботах П. Хьюбера [1, 2]. Асимптотичнi результати для M -оцiнок параметрiв лiнiйних та нелiнiйних моделей регресiї з незалежними похибками спостережень викладено в роботах [3 – 22]. Асимптотичнi властивостi M -оцiнок параметрiв лiнiйних та нелiнiйних моде- лей регресiї з випадковим шумом, що задовольняє умову сильної залежностi для моделей з дискретним часом, дослiджено в роботах [23 – 31], а для моделей з не- перервним часом — в роботах [32 – 34]. Автори у роботах [34, 35] вивчали асимптотичнi властивостi M -оцiнок па- раметрiв нелiнiйних моделей регресiї з неперервним часом та слабко залежним випадковим шумом. У данiй роботi дослiджено M -оцiнки, якi побудовано за допомогою гладких функцiй втрат. Останнi, як i їхнi недиференцiйовнi аналоги, широко використову- ються при розв’язаннi задач обробки статистичних даних (див., наприклад, [36]). У статтi доведенню теореми про асимптотичну нормальнiсть M -оцiнок (п. 3) передує доведення двох лем редукцiї (п. 2). З леми 1 видно, що вивчення M - оцiнки можна замiнити вивченням оцiнки найменших квадратiв (о.н.к.) параметра тiєї самої нелiнiйної функцiї регресiї у допомiжнiй моделi регресiї з помилками спостережень, якi виражаються через похiднi функцiї втрат. Лема 2 зводить ви- вчення о.н.к. параметра останньої нелiнiйної моделi до вивчення о.н.к. параметра вiдповiдної сурогатної лiнiйної моделi регресiї. Таку двокрокову редукцiю для доведення асимптотичної нормальностi M -оцiнок вперше було застосовано у ро- ботi [6]. Ключовим моментом доведення асимптотичної нормальностi є застосування теореми Брауера про нерухому точку. Для коректного використання цiєї теореми потрiбна єдинiсть, у деякому асимптотичному сенсi, розв’язку системи „нормаль- них” рiвнянь, яка визначає M -оцiнку. Таку єдинiсть встановлено у лемi 5. Важливо також зауважити, що у роботi запропоновано економнi та необтяжливi вимоги до функцiї регресiї (п. 1), за яких M -оцiнка є асимптотично нормальною. 1. Умови та формулювання основного результату. Розглянемо модель ре- гресiї Xj = g(j, θ) + εj , j = 1, . . . , n, (1) c© О. В. IВАНОВ, I. В. ОРЛОВСЬКИЙ, 2008 1470 ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 АСИМПТОТИЧНА НОРМАЛЬНIСТЬ M -ОЦIНОК У КЛАСИЧНIЙ НЕЛIНIЙНIЙ МОДЕЛI ... 1471 де g(j, θ), j ≥ 1, — послiдовнiсть невипадкових функцiй, якi задано на Θc, Θc — замикання в Rq обмеженої вiдкритої множини Θ ⊂ Rq. Ми не будемо припускати, що функцiя g(j, θ) є лiнiйною комбiнацiєю координат вектора θ = (θ1, . . . , θq). Нехай виконується умова A: A. εj , j ≥ 1, — послiдовнiсть незалежних однаково розподiлених випадкових величин (в.в.), заданих на ймовiрнiсному просторi (Ω,=,P),Eεj = 0. Означення. M -оцiнкою невiдомого параметра θ ∈ Θ, одержаною за спосте- реженнями Xj , j = 1, . . . , n, вигляду (1) та неперервною функцiєю втрат ρ(x), x ∈ R1, називають будь-який випадковий вектор (в.в.) θ̂n = θ̂n(Xj , j = 1, . . . , n) ∈ ∈ Θc, для якого Sn(θ̂n) = inf τ∈Θc Sn(τ), Sn(τ) = ∑ ρ(Xj − g(j, τ)), де ∑ = ∑n j=1 . Зауважимо, що, за введених умов M -оцiнка iснує (див., наприклад, роботи [37 – 39]). Припустимо, що функцiї g(j, τ), j ≥ 1, є двiчi неперервно диференцiйовними по τ ∈ Θc. Позначимо gi(j, τ) = ∂ ∂τi g(j, τ), gil(j, τ) = ∂2 ∂τi∂τl g(j, τ), i, l = 1, . . . , q, d2 n(θ) = diag ( d2 in(θ) )q i=1 , де d2 in(θ) = ∑ g2 i (j, θ), lim n→∞ n−1d2 in(θ) > 0, i = 1, . . . , q. Цi границi можуть дорiвнювати, зокрема, нескiнченностi. Нехай також d2 il,n(τ) = ∑ g2 il(j, τ), τ ∈ Θc, i, l = 1, . . . , q. Буквами k будемо позначати додатнi константи. Припустимо, що для достатньо великих n (для n > n0) виконуються умови B1: max 1≤j≤n sup τ∈Θc |gi(j, τ)| din(θ) ≤ kin− 1 2 , i = 1, . . . , q, (2) max 1≤j≤n sup τ∈Θc |gil(j, τ)| dil,n(θ) ≤ kiln− 1 2 , i, l = 1, . . . , q, (3) sup τ∈Θc dil,n(τ) din(θ)dln(θ) ≤ k̃iln− 1 2 , i, l = 1, . . . , q. (4) Запишемо Jn(θ) = (Jil,n(θ))q i,l=1 , Jil,n(θ) = d−1 in (θ)d−1 ln (θ) ∑ gi(j, θ)gl(j, θ), λmin(A) (λmax(A)) — мiнiмальне (максимальне) власне число додатно визначеної матрицi A. ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 1472 О. В. IВАНОВ, I. В. ОРЛОВСЬКИЙ Припустимо, що виконується умова B2: B2. λmin(Jn(θ)) ≥ λ0 > 0 для n > n0. При виконаннi умови B2 для n > n0 iснують невиродженi матрицi J−1 n (θ) = Λn(θ) = ( Λil n(θ) )q i,l=1 . Нехай fil(j, w) = gil(j, θ + n 1 2 d−1 n (θ)w), Fil(j;w1, w2) = fil(j, w1)− fil(j, w2), Fil,n(w1, w2) = ∑ F 2 il(j;w1, w2), i, l = 1, . . . , q. Введемо наступнi умови: B3. Для деякого r0 > 0 для n > n0 nd−2 in (θ)d−2 ln (θ) sup w∈vc(r0) Fil,n(w, 0)‖w‖−2 ≤ kil, i, l = 1, . . . , q; C. Функцiя ρ(x), x ∈ R1, є двiчi неперервно диференцiйовною, її похiднi ρ′(x) = ψ(x) та ρ′′(x) = ψ′(x) задовольняють такi властивостi: (i) Eψ(εj) = 0, E|ψ(εj)|3 <∞; (ii) Eψ′(εj) 6= 0, E(ψ′(εj))2 <∞; (iii) для довiльних x, h ∈ R1 та деякої константи κ <∞∣∣ψ′(x+ h)− ψ′(x) ∣∣ ≤ κ|h|. Позначимо σ2 = Eψ2(εj) (Eψ′(εj))2 , (5) Cq — клас опуклих борелевих пiдмножин Rq; ΦK(C) = ∫ C ϕK(x)dx, де ϕK(x), x ∈ Rq — щiльнiсть гауссiвського в.в. з нульовим середнiм та кореляцiй- ною матрицею K. Будемо вважати, що нормована M -оцiнка ŵn = ŵn(θ) = n− 1 2 dn(θ)(θ̂n − θ) задовольняє умову конзистентностi D. D. ŵn P−→ n→∞ 0. Достатнi умови слабкої конзистентностi M -оцiнок параметрiв нелiнiйних мо- делей регресiї наведено у роботах [10 – 14, 16, 36, 40]. Сформулюємо основний результат цiєї роботи. Теорема. Нехай виконуються умови A, B1 – B3, C та D. Тодi sup C∈Cq ∣∣∣P{dn(θ)(θ̂n − θ) ∈ C } − Φσ2Λn(θ)(C) ∣∣∣ −→ n→∞ 0. (6) ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 АСИМПТОТИЧНА НОРМАЛЬНIСТЬ M -ОЦIНОК У КЛАСИЧНIЙ НЕЛIНIЙНIЙ МОДЕЛI ... 1473 Нехай замiсть умови B2 виконано наступну умову: B4. Iснує lim n→∞ Jn(θ) = J(θ), де J(θ) — деяка додатно визначена матриця. При виконаннi умови B4 iснує невироджена матриця Λ(θ) = J−1(θ) = ( Λil(θ) )q i,l=1 . Тодi справедливим є такий результат. Наслiдок 1. Якщо виконано умови A, B1, B3, B4, C та D, то sup C∈Cq ∣∣∣P{dn(θ)(θ̂n − θ) ∈ C } − Φσ2Λ(θ)(C) ∣∣∣ −→ n→∞ 0. 2. Допомiжнi твердження. Виконаємо замiну змiнних u = dn(θ)(τ − θ) (7) у функцiї регресiї та її похiдних: g(j, τ) = g(j, θ + d−1 n (θ)u) = h(j, u), gi(j, τ) = gi(j, θ + d−1 n (θ)u) = hi(j, u), i = 1, . . . , q, gil(j, τ) = gil(j, θ + d−1 n (θ)u) = hil(j, u), i, l = 1, . . . , q. Також будемо використовувати позначення H(j;u1, u2) = h(j, u1)− h(j, u2), Hi(j;u1, u2) = hi(j, u1)− hi(j, u2), i = 1, . . . , q. Введемо вектори Mn(u) = ( M i n(u) )q i=1 , M i n(u) = γ ∑ ψ(Xj − h(j, u)) hi(j, u) din(θ) , i = 1, . . . , q, та Ψn(u) = ( Ψi n(u) )q i=1 , Ψi n(u) = γ ∑ ψ(εj) hi(j, u) din(θ) + ∑ H(j; 0, u) hi(j, u) din(θ) , i = 1, . . . , q, де γ = 1 Eψ′(εj) . Вектори Mn(u) та Ψn(u) визначено для u ∈ U c n(θ), Un(θ) = dn(θ)(Θ− θ). Зауважимо, що за введених нами припущень множини Un(θ) розширюються до Rq при n → ∞. Таким чином, для довiльного R > 0 v(R) = { u ∈ Rq : ‖u‖ < R } ⊂ ⊂ Un(θ) для n > n0(R). ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 1474 О. В. IВАНОВ, I. В. ОРЛОВСЬКИЙ Легко зрозумiти статистичний сенс векторiв Mn(u) та Ψn(u). Розглянемо функ- цiонал γSn(θ + d−1 n (θ)u). Тодi нормована M -оцiнка ûn = dn(θ)(θ̂n − θ) задовольняє систему рiвнянь Mn(u) = 0. (8) Нехай ηj = γψ(εj), j ≥ 1, (9) та спостереження мають вигляд Yj = g(j, θ) + ηj , j = 1, . . . , n. (10) Тодi Ψn(u) = 0 є системою нормальних рiвнянь для знаходження нормованої оцiнки найменших квадратiв ^ un = ^ un(θ) = dn(θ)( ^ θ n − θ) невiдомого параметра θ допомiжної нелiнiйної моделi регресiї (10). Лема 1. Нехай виконуються умови A, B1, C. Тодi для довiльних R > 0 та r > 0 P { sup u∈vc(R) ‖Mn(u)−Ψn(u)‖ > r } −→ n→∞ 0. (11) Доведення. Для фiксованого i запишемо рiзницю M i n(u)−Ψi n(u) = = γ ∑[ ψ (εj +H(j; 0, u))− ψ(εj)− ψ′(εj)H(j; 0, u) ]hi(j, u) din(θ) + +γ ∑ H(j; 0, u) hi(j, u) din(θ) ζj = = S1(u) + S2(u), ζj = ψ′(εj)− Eψ′(εj), j ≥ 1. Необхiдно довести, що S1(u) та S2(u) збiгаються до нуля за ймовiрнiстю рiвно- мiрно по u ∈ vc(R). Нехай u ∈ vc(R) є фiксованим. Тодi ES2 2(u) = γ2Eζ2 1 ∑ H2(j; 0, u) h2 i (j, u) d2 in(θ) . (12) ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 АСИМПТОТИЧНА НОРМАЛЬНIСТЬ M -ОЦIНОК У КЛАСИЧНIЙ НЕЛIНIЙНIЙ МОДЕЛI ... 1475 Очевидно, max 1≤j≤n ∣∣H(j; 0, u) ∣∣ = max 1≤j≤n ∣∣∣∣∣ q∑ i=1 hi(j, u∗j ) din(θ) ui ∣∣∣∣∣ ≤ ‖u‖ max 1≤j≤n ( q∑ i=1 [ hi(j, u∗j ) din(θ) ]2)1 2 , де ‖u∗j‖ ≤ ‖u‖, j = 1, . . . , q. Використовуючи (2), отримуємо max 1≤j≤n ∣∣H(j; 0, u) ∣∣ ≤ n− 1 2 ‖~k‖‖u‖, (13) де ~k = (k1, . . . , kq) — вектор констант з нерiвностей (2). Застосовуючи нерiвностi (13) та (2) до суми (12), знаходимо ES2 2(u) ≤ γ2Eζ2 1‖~k‖2(ki)2R2n−1. (14) З (14) та умови C(ii) випливає, що S2(u) P→ 0 при n→∞ поточково у vc(R). Для u1, u2 ∈ vc(R) розглянемо рiзницю S2(u1)− S2(u2) = = γ ∑ H(j; 0, u1) Hi(j;u1, u2) din(θ) ζj − γ ∑ H(j;u1, u2) hi(j, u2) din(θ) ζj = = S3(u1, u2) + S4(u1, u2). Для довiльних h > 0, r > 0 розглянемо ймовiрнiсть P { sup ‖u1−u2‖≤h |S3(u1, u2)| > r } ≤ r−1E sup ‖u1−u2‖≤h ∣∣S3(u1, u2) ∣∣ ≤ ≤ 2r−1 ∣∣γ|E|ψ′(ε1)∣∣n sup u∈v(R) 1≤j≤n ∣∣H(j; 0, u) ∣∣ sup ‖u1−u2‖≤h 1≤j≤n |Hi(j;u1, u2)| din(θ) . (15) Крiм цього, sup ‖u1−u2‖≤h 1≤j≤n |Hi(j;u1, u2)| diT (θ) ≤ ≤ h max 1≤j≤n [ q∑ l=1 ( sup u∈v(R) |hil(j, u)| dil,n(θ) ) dil,n(θ) din(θ)dln(θ) ] ≤ q∑ l=1 kilk̃ilhn−1 (16) завдяки (3) та (4). Застосовуючи (13) та (16) до (15), отримуємо P { sup ‖u1−u2‖≤h |S3(u1, u2)| > r } ≤ k1r −1n− 1 2h (17) з k1 = 2 ∣∣γ|E|ψ′(ε1)∣∣R‖~k‖( q∑ l=1 kilk̃il ) . Аналогiчним чином, використовуючи (2) та (13), знаходимо ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 1476 О. В. IВАНОВ, I. В. ОРЛОВСЬКИЙ P { sup ‖u1−u2‖≤h |S4(u1, u2)| > r } ≤ r−1E sup ‖u1−u2‖≤h ∣∣S4(u1, u2) ∣∣ ≤ ≤ 2r−1 ∣∣γ|E|ψ′(ε1)∣∣n sup u∈vc(R) 1≤j≤n |hi(j, u)| din(θ) sup ‖u1−u2‖≤h 1≤j≤n ∣∣H(j;u1, u2) ∣∣ ≤ k2r −1h (18) з k2 = 2 ∣∣γ|E|ψ′(ε1)∣∣Rki‖~k‖. З (17) та (18) маємо P { sup ‖u1−u2‖≤h ∣∣S2(u1)− S2(u2) ∣∣ > r } ≤ 2r−1h(k1n − 1 2 + k2) ≤ k3r −1h. (19) Нехай Nh — скiнченна h-сiтка кулi vc(R). Тодi sup u∈vc(R) |S2(u)| ≤ sup ‖u1−u2‖≤h ∣∣S2(u1)− S2(u2) ∣∣+ max u∈Nh ∣∣S2(u) ∣∣. (20) З (19) та (20) випливає, що для будь-якого r > 0 P { sup u∈vc(R) |S2(u)| > r } < 2k3r −1h+ P { max u∈Nh |S2(u)| > r 2 } . Для ε > 0 задамо h = εr 4k3 . Тодi для n > n0 внаслiдок поточкової збiжностi S2(u) до нуля за ймовiрнiстю маємо P { max u∈Nεr/4k3 |S2(u)| > r 2 } ≤ ε 2 . Звiдси випливає, що P { sup u∈vc(R) |S2(u)| > r } < ε. З iншого боку, для деякої в.в. u∗n ∈ vc(R) sup u∈vc(R) ∣∣S1(u) ∣∣ = = |γ| ∣∣∣∣∑ hi(j, u∗n) din(θ) ( ψ(εj +H(j; 0, u∗n) ) − ψ(εj)− ψ′(εj)H(j; 0, u∗n)) ∣∣∣∣ . (21) Згiдно з припущенням C(iii) та (13) майже напевно (м.н.)∣∣∣ψ(εj +H(j; 0, u∗n) ) − ψ(εj)− ψ′(εj)H(j; 0, u∗n) ∣∣∣ = = ∣∣ψ′(εj + δH(j; 0, u∗n) ) − ψ′(εj) ∣∣∣∣H(j; 0, u∗n) ∣∣ ≤ ≤ κH2(j; 0, u∗n) ≤ κ‖~k‖2R2n−1, δ ∈ (0, 1). (22) Завдяки (2), (21) та (22) ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 АСИМПТОТИЧНА НОРМАЛЬНIСТЬ M -ОЦIНОК У КЛАСИЧНIЙ НЕЛIНIЙНIЙ МОДЕЛI ... 1477 sup u∈v(R) ∣∣S1(u) ∣∣ ≤ κ|γ|‖~k‖2kiR2n− 1 2 м.н., i лему 1 доведено. Введемо в.в. Ln(u) = ( Li n(u) )q i=1 , Li n(u) = ∑( ηj − q∑ l=1 gl(j, θ) dln(θ) ul ) gi(j, θ) din(θ) , i = 1, . . . , q, (23) який вiдповiдає допомiжнiй лiнiйнiй регресiйнiй моделi Zj = q∑ i=1 gi(j, θ)βi + ηj , j = 1, . . . , n, з в.в. ηj , заданими формулою (9). Система нормальних рiвнянь Ln(u) = 0 (24) визначає нормовану лiнiйну оцiнку найменших квадратiв β̃n параметра β ∈ Rq. Покладемо ũn = ũn(θ) = dn(θ)(β̃n − β). (25) Лема 2. Нехай виконуються умови A, B1 та C. Тодi для довiльних R > 0 та r > 0 P { sup u∈vc(R) ‖Ψn(u)− Ln(u)‖ > r } −→ n→∞ 0. (26) Доведення. Для довiльного i ∈ {1, . . . , q} Ψi n(u)− Li n(u) = = ∑ ηj hi(j, u) din(θ) + ∑ H(j; 0, u) hi(j, u) din(θ) − − ∑ ηj gi(j, θ) din(θ) + ∑ gi(j, θ) din(θ) q∑ l=1 gl(j, θ) dln(θ) ul = = ∑ ηj Hi(j;u, 0) din(θ) + ∑ H(j; 0, u) Hi(j;u, 0) din(θ) + + ∑ gi(j, θ) din(θ) [ H(j; 0, u) + q∑ l=1 gl(j, θ) dln(θ) ul ] = = S5(u) + S6(u) + S7(u). Для фiксованого u ∈ vc(R), використовуючи нерiвнiсть (16), знаходимо ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 1478 О. В. IВАНОВ, I. В. ОРЛОВСЬКИЙ ES2 5(u) = γ2Eψ2(ε1) ∑ H2 i (j;u, 0) d2 in(θ) ≤ γ2Eψ2(ε1) ( q∑ l=1 kilk̃il )2 R2n−1, i тому S5(u) P−→ n→∞ 0 поточково у vc(R). З iншого боку, завдяки (16), E sup ‖u1−u2‖≤h ∣∣S5(u1)− S5(u2) ∣∣ ≤ ∣∣γ|E|ψ(ε1) ∣∣( q∑ l=1 kilk̃il ) h, i, як i для S2(u) в доведеннi леми 1, доводиться рiвномiрна у vc(R) збiжнiсть S5(u) до нуля за ймовiрнiстю. Беручи до уваги нерiвностi (13) та (16), отримуємо sup u∈vc(R) ∣∣S6(u) ∣∣ ≤ ‖~k‖ ( q∑ l=1 kilk̃il ) R2n− 1 2 −→ n→∞ 0. Зауважимо, що S7(u) можна записати у виглядi S7(u) = −1 2 q∑ l,m=1 (∑ hlm(j, un) dln(θ)dmn(θ) gi(j, θ) din(θ) ) ulum для деякого un ∈ vc(R). Тодi за умови B1∣∣S7(u) ∣∣ ≤ ki 2 q∑ l, m=1 ( klmk̃lm|ul||um| ) n− 1 2 ≤ qki 2 max l, m=1,...,q [ klmk̃lm ] ‖u‖2n− 1 2 . Таким чином, sup u∈vc(R) ∣∣S7(u) ∣∣ −→ n→∞ 0, i лему 2 доведено. З (11) та (26) випливає таке твердження. Лема 3. Нехай виконуються умови A, B1 та C. Тодi для довiльних R > 0 та r > 0 P { sup u∈vc(R) ‖Mn(u)− Ln(u)‖ > r } −→ n→∞ 0. (27) Використовуючи (23) та (24), знаходимо (див. (25)) ũn = Λn(θ) ∑ ηjd −1 n (θ)∇g(j, θ), (28) де ∇g(j, θ) = (gi(j, θ)) q i=1 — градiєнт функцiї g(j, θ). Лема 4. Нехай виконуються умови (2), C(i), C(ii) та B2. Тодi для довiльних R > 0 та r > 0 sup C∈Cq ∣∣P {ũn ∈ C} − Φσ2Λn(θ)(C) ∣∣ −→ n→∞ 0. (29) Доведення. Позначимо через cov(ζ) коварiацiйну матрицю в.в. ζ. Для доведення леми необхiдно перевiрити умови наслiдку 17.2 в [41, с. 172], який сформульовано нижче у зручному для нас виглядi. ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 АСИМПТОТИЧНА НОРМАЛЬНIСТЬ M -ОЦIНОК У КЛАСИЧНIЙ НЕЛIНIЙНIЙ МОДЕЛI ... 1479 Твердження 1. Нехай ξjn, j = 1, . . . , n, n ≥ 1, — послiдовнiсть серiй iз незалежних в кожнiй серiї в.в. в Rq з Eξjn = 0, j = 1, . . . , n, n ≥ 1, i для n ≥ n0 : 1) λmin(Kn) ≥ λ∗ > 0, Kn = n−1 ∑ cov(ξjn); 2) n−1 ∑ E‖ξjn‖3 ≤ r3 <∞. Тодi iснує константа k(q) <∞ така, що sup C∈Cq ∣∣∣P{n−1/2 ∑ ξjn ∈ C } − ΦKn (C) ∣∣∣ ≤ k(q)λ−3/2 ∗ r3n −1/2. Покладемо ξjn = n1/2ηjΛn(θ)d−1 n (θ)∇g(j, θ), j = 1, . . . , n. Тодi Kn = σ2Λn(θ). Оскiльки Jii,n = 1, i = 1, . . . , q, то λmax(Jn(θ)) ≤ q i, вiдповiдно, λmin(Λn(θ)) ≥ 1 q . Позначимо µ3 = E|ψ(ε1)|3 |Eψ′(ε1)|3 <∞. Маємо n−1 ∑ E‖ξjn‖3 ≤ µ3 ( λmax ( Λn(θ) ))3 n1/2 ∑( q∑ i=1 g2 i (j, θ) d2 in(θ) )3/2 . (30) За умови B2 для n > n0 виконується λmin(Jn(θ)) ≥ λ0 > 0. Вiдповiдно, при n > n0 λmax(Λn(θ)) ≤ 1 λ0 . (31) З iншого боку, завдяки (2) n1/2 ∑( q∑ i=1 g2 i (j, θ) d2 in(θ) )3/2 ≤ n3/2 ( q∑ i=1 ( max 1≤j≤n |gi(j, θ)| din(θ) )2 )3/2 ≤ ‖~k‖3. (32) Таким чином, пiдставляючи (31), (32) у (30), отримуємо n−1 ∑ E‖ξjn‖3 ≤ µ3λ −3 0 ‖~k‖3 = r3 <∞. Всi умови твердження 1 виконано, i лему 4 доведено. Аналогiчно (7) виконаємо замiну змiнних w = n− 1 2 dn(θ)(τ − θ) у функцiї регресiї та її похiдних. Функцiї, аналогiчнi h, hi, H, Hi позначимо f, fi, F, Fi вiдповiдно (див. також означення перед умовою B3). Лема 5. За умов теореми для довiльного ε > 0 iснує таке n0 = n0(ε), що для n > n0 з iмовiрнiстю не меншою за 1− ε 3 система рiвнянь ∇ ( γn−1Sn(θ + n 1 2 d−1 n (θ)w) ) = 0 (33) має єдиний розв’язок. ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 1480 О. В. IВАНОВ, I. В. ОРЛОВСЬКИЙ Доведення. Розглянемо загальний елемент гессiана H(w) вiдображення w → → γn−1Sn(θ + n 1 2 d−1 n (θ)w): Hil(w) = ∂2 ∂wi∂wl ( γn−1Sn(θ + n 1 2 d−1 n (θ)w) ) = 8∑ k=1 H(k) il (w), H(1) il (w) = γ din(θ)dln(θ) ∑ (ψ′(εj + F (j; 0, w))− ψ′(εj)) fi(j, w)fl(j, w), H(2) il (w) = γ din(θ)dln(θ) ∑ ψ′(εj) (fi(j, w)Fl(j;w, 0) + fl(j, 0)Fi(j;w, 0)) , H(3) il = γ din(θ)dln(θ) ∑ ζjfi(j, 0)fl(j, 0); H(4) il = Jil,n(θ), H(5) il (w) = − γ din(θ)dln(θ) ∑ (ψ(εj + F (j; 0, w))− ψ(εj)− −ψ′(εj)F (j; 0, w))fil(j, w), H(6) il (w) = − γ din(θ)dln(θ) ∑ ψ′(εj)F (j; 0, w)fil(j, w), H(7) il (w) = − 1 din(θ)dln(θ) ∑ ηjFil(j;w, 0), H(8) il = − 1 din(θ)dln(θ) ∑ ηjfil(j, 0), i, l = 1, . . . , q. Нерiвностi, аналогiчнi (13) та (16), набирають вигляду max 1≤j≤n ∣∣F (j;w, 0) ∣∣ ≤ ‖~k‖‖w‖, n− 1 2 d−1 in (θ) max 1≤j≤n ∣∣Fi(j;w, 0) ∣∣ ≤ ( q∑ l=1 kilk̃il ) ‖w‖n−1, i = 1, . . . , q. У подальших оцiнках будемо використовувати умови теореми та останнi двi нерiвностi. Маємо ∣∣H(1) il (w) ∣∣ ≤ |γ|κkikl‖~k‖‖w‖. (34) Позначимо ξn = 1 n ∑( (ψ′(εj)) 2 − E (ψ′(εj)) 2 ) . Тодi ∣∣H(2) il (w) ∣∣ ≤ |γ|n 1 2 ( |ξn| 1 2 + ( E (ψ′(εj)) 2 ) 1 2 ) × × ( 2 ∑ f2 i (j, w)F 2 l (j;w, 0) + f2 l (j, 0)F 2 i (j;w, 0) d2 in(θ)d2 ln(θ) )1 2 ≤ ≤ |γ| ( |ξn| 1 2 + ( E (ψ′(εj)) 2 ) 1 2 ) × × 2(ki)2 ( q∑ i=1 klik̃li )2 + 2(kl)2 ( q∑ i=1 kilk̃il )2  1 2 ‖w‖, (35) ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 АСИМПТОТИЧНА НОРМАЛЬНIСТЬ M -ОЦIНОК У КЛАСИЧНIЙ НЕЛIНIЙНIЙ МОДЕЛI ... 1481 E ( H(3) il )2 ≤ γ2Eζ2 j ( kikl )2 n−1, (36) ∣∣H(5) il (w) ∣∣ ≤ |γ|κ ∑ F 2(j; 0, w)|fil(j, w)| din(θ)dln(θ) ≤ |γ|κkil k̃il‖~k‖2‖w‖2. (37) Аналогiчно (35) отримуємо∣∣H(6) il (w) ∣∣ ≤ |γ| ( |ξn| 1 2 + ( E (ψ′(εj)) 2 ) 1 2 ) ‖~k‖kilk̃il‖w‖. (38) За умови B3, якщо ‖w‖ ≤ r0,∣∣H(7) il (w) ∣∣ ≤ (|νn| 1 2 + ( Eν2 n ) 1 2 ) k 1 2 il‖w‖, (39) де νn = n−1 ∑ (η2 j − Eη2 j ). Маємо також E ( H(8) il )2 ≤ Eη2 j ( kilk̃il )2 n−1. (40) На пiдставi нерiвностi [42, с. 103] можемо записати∣∣∣λmin (H(w))− λmin (Jn(θ)) ∣∣∣ ≤ q max 1≤i,l≤q |Hil(w)− Jil,n(θ)| ≤ ≤ q ∑ k 6=4 max 1≤i,l≤q ∣∣∣H(k) il (w) ∣∣∣ . З умови конзистентностi D та оцiнок (34) – (40) випливає, що для довiльного ε > 0 можна вказати подiю Cn, iмовiрнiсть якої P{Cn} ≥ 1− ε 3 для n > n0, таку, що коли Cn вiдбувається, то |λmin (H(w))− λmin (Jn(θ))| ≤ λ0 2 , або λmin (H(ŵn)) ≥ λ0 2 , тобто випадковий вектор ŵn є єдиним розв’язком системи рiвнянь (33). Наслiдок 2. Для будь-яких ε > 0 та R > 0 система рiвнянь (8) для n > n0 з iмовiрнiстю не меншою за 1− ε 3 має єдиний розв’язок у кулi vc(R). 3. Доведення основних результатiв. Доведення теореми. З огляду на лему 4 для доведення теореми необхiдно показати, що для довiльних r > 0 πn(r) = P {‖ûn − ũn‖ > r} −→ n→∞ 0, (41) де ũn введено у (28). Задамо подiю An = { ũn ∈ vc(R− r) } з таким R, що за лемою 4 для n > n0 P{An} ≤ ε 3 , де ε > 0 — фiксоване як завгодно мале число. ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 1482 О. В. IВАНОВ, I. В. ОРЛОВСЬКИЙ Введемо також подiю Bn = { sup u∈vc(R) ‖Λn(θ)(Mn(u)− Ln(u))‖ ≤ r } . З (27) та (31) випливає, що для n > n0 P{Bn} ≤ P { sup u∈vc(R) ‖Mn(u)− Ln(u)‖ > λ0r } ≤ ε 3 , а отже, для n > n0 P{An ∩Bn ∩ Cn} ≥ 1− ε, (42) де Cn — подiя, про яку йдеться у доведеннi леми 5. Беручи до уваги формули (23) та (28), отримуємо Λn(θ)Ln(u) = ũn − u. Якщо подiя An ∩Bn ∩ Cn вiдбулася, то для u ∈ vc(R)∥∥u+ Λn(θ)Mn(u) ∥∥ ≤ ∥∥Λn(θ)(Mn(u)− Ln(u)) ∥∥+ ‖ũn‖ ≤ r + (R− r) = R, тобто Fn(u) = u + Λn(θ)Mn(u) — неперервне вiдображення з vc(R) в vc(R). Для того щоб довести (41), скористаємося теоремою Брауера про нерухому точку (див., наприклад, [43]). Застосовуючи цю теорему до Fn(u), отримуємо, що iснує точка u0 n ∈ vc(R) така, що Fn(u0 n) = u0 n або, оскiльки Λn(θ) не вироджена, Mn(u0 n) = 0. Згiдно з наслiдком 2 леми 5 єдиним розв’язком системи рiвнянь Mn(u) = 0 є нормована M -оцiнка ûn. Таким чином, An ∩Bn ∩ Cn ⊂ { ûn ∈ vc(R) } i P { ûn ∈ vc(R) } ≥ 1− ε. Зауважимо також, що з (42) випливає нерiвнiсть 1− ε ≤ P {{ ûn ∈ vc(R) } ∩Bn } ≤ ≤ P {∥∥Λn(θ)(Mn(ûn)− Ln(ûn)) ∥∥ ≤ r } = = P {‖ûn − ũn)‖ ≤ r} , (43) а виконання (43) для довiльного ε > 0 еквiвалентне виконанню (41). Нехай для опуклої борелевої множини C Cr = {x : x ∈ Rq; d(x,C) < r} , де d(x,C) = inf y∈C ‖x− y‖, та C−r = Rq\ (Rq\C)r . Тодi завдяки (41), P{ûn ∈ C} ≤ P { ûn ∈ C, ‖ûn − ũn‖ ≤ r 2 } + ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 АСИМПТОТИЧНА НОРМАЛЬНIСТЬ M -ОЦIНОК У КЛАСИЧНIЙ НЕЛIНIЙНIЙ МОДЕЛI ... 1483 +P { ûn ∈ C, ‖ûn − ũn‖ > r 2 } ≤ P{ũn ∈ Cr}+ πn (r 2 ) , (44) P{ũn ∈ C−r} ≤ P { ũn ∈ C−r, ‖ûn − ũn‖ ≤ r 2 } + +P { ũn ∈ C−r, ‖ûn − ũn‖ > r 2 } ≤ P{ûn ∈ C}+ πn (r 2 ) . (45) Для довiльної опуклої множини C ∈ Cq з (44) та (45) маємо P{ûn ∈ C} − Φσ2Λn(θ)(C) ≤ ≤ πn (r 2 ) + ( P{ũn ∈ Cr} − Φσ2Λn(θ)(Cr) ) + + ( Φσ2Λn(θ)(Cr)− Φσ2Λn(θ)(C) ) , (46) Φσ2Λn(θ)(C)− P{ûn ∈ C} ≤ ≤ πn (r 2 ) + ( Φσ2Λn(θ)(C−r)− P{ũn ∈ C−r} ) + + ( Φσ2Λn(θ)(C)− Φσ2Λn(θ)(C−r) ) . (47) Другi доданки у правих частинах (46) та (47) збiгаються до нуля рiвномiрно по C ∈ Cq завдяки (29), πn (r 2 ) −→ n→∞ 0 за (41). Для оцiнки третiх доданкiв нам потрiбен один глибокий факт, повне доведення якого можна знайти в § 3 [41]. Твердження 2. Нехай ν — невiд’ємна диференцiйовна функцiя на [0,∞) така, що: 1) b = ∫ ∞ 0 |ν′(λ)|λq−1dλ <∞; 2) lim λ→∞ ν(λ) = 0. Тодi для довiльної опуклої множини C ∈ Cq та будь-якого r > 0∫ Cr\C ν(‖x‖)dx ≤ b 2π q 2 Γ (q 2 )r, ∫ C\C−r ν(‖x‖)dx ≤ b 2π q 2 Γ (q 2 )r. (48) Оскiльки за означенням матрицi Jn(θ) det Jn(θ) ≤ q!, а за умовою B2 для n > n0 〈Jn(θ)x, x〉 ≥ λ0‖x‖2, то ϕσ2Λn(θ)(x) = (det Jn(θ)) 1 2 (2πσ2) q 2 exp { − 1 2σ2 〈Jn(θ)x, x〉 } ≤ ≤ (q!) 1 2 (2πσ2) q 2 exp { − λ0 2σ2 ‖x‖2 } = ν(‖x‖). Тодi за формулами (48) ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 1484 О. В. IВАНОВ, I. В. ОРЛОВСЬКИЙ Φσ2Λn(θ)(Cr)− Φσ2Λn(θ)(C) = ∫ Cr\C ϕσ2Λn(θ)(x)dx ≤ b 2π q 2 Γ (q 2 )r, (49) де b = b(q, λ0, σ 2) <∞ — деяка константа, яка не залежить вiд множини C. За допомогою (48) для рiзницi Φσ2Λn(θ)(C)− Φσ2Λn(θ)(C−r) отримуємо оцiнку, яка збiгається з (49). Таким чином, з (46), (47) та попереднiх мiркувань випливає справедливiсть (6). Доведення наслiдку 1. Беручи до уваги (6), потрiбно довести, що sup C∈Cq ∣∣Φσ2Λn(θ)(C)− Φσ2Λ(θ)(C) ∣∣ −→ n→∞ 0. Позначимо λmin(J(θ)) = 2λ0 > 0. Тодi для n > n0 λmin(Jn(θ)) ≥ λ0. Для довiльного C ∈ Cq та n > n0∣∣Φσ2Λn(θ)(C)− Φσ2Λ(θ)(C) ∣∣ ≤ ≤ ∣∣∣(det Jn(θ)) 1 2 − (det J(θ)) 1 2 ∣∣∣ (2πσ2) q 2 ∫ Rq exp { − λ0 2σ2 ‖x‖2 } dx+ + (det J(θ)) 1 2 (2πσ2) q 2 ∫ Rq ∣∣∣∣exp { − 1 2σ2 〈Jn(θ)x, x〉 } − exp { − 1 2σ2 〈J(θ)x, x〉 }∣∣∣∣ dx = = I1 + I2. Очевидно, lim n→∞ I1 = 0. Крiм того, послiдовнiсть функцiй fn(x) = ∣∣∣∣exp { − 1 2σ2 〈Jn(θ)x, x〉 } − exp { − 1 2σ2 〈J(θ)x, x〉 }∣∣∣∣ , x ∈ Rq, поточково збiгається до нуля та має iнтегровну мажоранту: fn(x) ≤ exp { − λ0 2σ2 ‖x‖2 } + exp { −λ0 σ2 ‖x‖2 } , n > n0. За теоремою Лебега про мажоровану збiжнiсть lim n→∞ I2 = 0. Наслiдок доведено. 4. Приклади. Наступнi функцiї втрат ρ мають обмежену похiдну ρ′′′ = ψ′′, тобто для них виконується умова Лiпшиця C(iii): ρ(x) = 1 2ν (1− e−νx2 ), ν > 0, ρ(x) = 2 ln ch x 2 , ρ(x) = νx arctgµx− ν 2µ ln(1 + µ2x2), ν, µ > 0, ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 АСИМПТОТИЧНА НОРМАЛЬНIСТЬ M -ОЦIНОК У КЛАСИЧНIЙ НЕЛIНIЙНIЙ МОДЕЛI ... 1485 ρ(x) = x2 x2 + c2 , c > 0, ψ(x) = 2c2x (x2 + c2)2 , ψ′(x) = 2c2(c2 − 3x2) (x2 + c2)3 , ψ′′(x) = 24c2x(x2 − c2) (x2 + c2)4 . У подальших прикладах зупинимось на M -оцiнках параметрiв зсуву в.в. зi щiльнiстю Кошi, побудованих за останньою функцiєю втрат. Пpиклад 1. Розглянемо модель регресiї Xj = θ1 cos θ2j + εj , j = 1, . . . , n, в якiй функцiю регресiї g(j, θ) = θ1 cos θ2j задано на Θ = (a,A) × (h, π − h), 0 < a < A <∞, 0 < h < π 2 , та в.в. εj мають розподiл Кошi зi щiльнiстю fεj (x) = c π(x2 + c2) , x ∈ R1, c > 0 — деякий вiдомий параметр. У цьому випадку g1(j, θ) = cos θ2j, g2(j, θ) = −θ1j sin θ2j, g11(j, θ) = 0, g12(j, θ) = −j sin θ2j, g22(j, θ) = −θ1j2 cos θ2j, крiм того, d2 1n(θ) = ∑ cos2 θ2j = n 2 +O(1), n→∞, (50) d2 2n(θ) = θ21 ∑ j2 sin2 θ2j = θ21 n3 6 +O(n2), n→∞. (51) Виходячи з (50) та (51), можна взяти нормованi M -оцiнки û1n = (n 2 ) 1 2 (θ̂1n − θ1), û2n = θ1 ( n3 6 ) 1 2 ( θ̂2n − θ2 ) . (52) Враховуючи, що d12,n(θ) = O(n 3 2 ), d22,n(θ) = O(n 5 2 ), бачимо, що умова B1 виконується. Зауважимо також, що lim n→∞ Jn(θ) = J(θ) = I2 = ( 1 0 0 1 ) , i, таким чином, умови B4 (та B2) виконано також. Перевiримо виконання умови B3. Для випадку, коли i = l = 1, g11(j, θ) = 0, i твердження є очевидним. Для випадку i = 1, l = 2 nF12,n(w, 0) d2 1n(θ)d2 2n(θ) = n d2 1n(θ)d2 2n(θ) ∑( j sin(θ2 + n 1 2 d−1 2n (θ)w2)j − j sin θ2j )2 ≤ ≤ 4n d2 1n(θ)d2 2n(θ) ∑ j2 sin2 ( j 2 n 1 2 d−1 2n (θ)w2 ) ≤ k12‖w‖2 для деякого k12 > 0. Аналогiчно ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 1486 О. В. IВАНОВ, I. В. ОРЛОВСЬКИЙ nF22,n(w, 0) d4 2n(θ) = n d4 2n(θ) ∑ j4 ( θ1 [ cos(θ2 + n 1 2 d−1 2n (θ)w2)j − cos θ2j ] + +n 1 2 d−1 1n (θ)w1 cos(θ2 + n 1 2 d−1 2n (θ)w2)j )2 ≤ ≤ 4θ21n d4 2n(θ) ∑ j4 sin2 ( j 2 n 1 2 d−1 2n (θ)w2 ) + + ( 2n2 d2 1n(θ)d4 2n(θ) ∑ j4 ) |w1|2 ≤ k22‖w‖2 для деякого k22 > 0. Перевiримо виконання умови C у випадку, коли параметри c функцiй ρ та f збiгаються. Очевидно, Eψ(εj) = 0, E |ψ(εj)|3 <∞, E |ψ′(εj)| 2 <∞. Неважко знайти, наприклад, методом лишкiв, що Eψ2(εj) = 5 32c2 , Eψ′(εj) = 1 4c2 > 0. Таким чином, умова C виконується i величина σ2, задана формулою (5), набуває значення σ2 = 5c2 2 . Отже, нормована M -оцiнка ûn = (û1n, û2n) , яку задано в (52), асимптотично нормальна N ( 0, 5c2 2 I2 ) . Пpиклад 2. Розглянемо модель спостережень Xj = θ + εj , j = 1, . . . , n , яка є найпростiшим випадком загальної моделi (1). Припустимо, що похибки спостережень εj мають розподiл Кошi зi щiльнiстю fεj (x) = 1 π 1 1 + x2 , x ∈ R1. Таким чином, спостереження Xj мають щiльнiсть розподiлу f(x, θ) = 1 π 1 1 + (x− θ)2 , x ∈ R1, i параметр θ є медiаною в.в. Xj . Доведена у статтi теорема стверджує, що M -оцiнка θ̂n параметра θ, побудо- вана за допомогою функцiї втрат ρ(x) = x2 1 + x2 , має таку властивiсть: величина √ n ( θ̂n − θ ) асимптотично нормальна N ( 0, 5 2 ) . З iншого боку, якщо в якостi оцiнки медiани θ взяти порядкову статистику X( k( 1 2 ) ), де k ( 1 2 ) = n 2 , якщо n 2 — цiле число, i k ( 1 2 ) = [n 2 ] +1 в протилежному ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 АСИМПТОТИЧНА НОРМАЛЬНIСТЬ M -ОЦIНОК У КЛАСИЧНIЙ НЕЛIНIЙНIЙ МОДЕЛI ... 1487 випадку, то в.в. √ n ( X( k( 1 2 ) ) − θ ) є асимптотично нормальною N ( 0, 1 4f2(θ, θ) ) i, очевидно, 1 4f2(θ, θ) = π2 4 (див., наприклад, теорему 2 в [44, с. 368]). Вiдносною асимптотичною ефективнiстю цих двох оцiнок є величина π2 4 : 5 2 = π2 10 ≈ 0, 987. Останнiй результат показує, що θ̂n i X(k(1/2)) оцiнюють медiану θ практично з однiєю точнiстю. 1. Huber P. J. Robust regression: asymptotics, conjectures and Monte-Carlo // Ann. Statist. – 1973. – 1, № 5. – P. 799 – 821. 2. Хьюбер П. Робастность в статистике. – М.: Мир, 1984. 3. Hampel F. R., Ronchetti E. M., Rousseeuw P. J., Stahel W. A. Robust statistics. The approach based on influence functions. – New York: Wiley, 1986. 4. Ronner A. E. Asymptotic normality of p-norm estimators in multiple regression // Z. Wahrscheinli- chkeitstheor. und verw. Geb. – 1984. – 66. – S. 613 – 620. 5. Бардадым Т. А., Иванов А. В. Асимптотическая нормальность lα-оценок параметров нелиней- ной модели регрессии // Докл. АН УССР. Сер. А. – 1988. – № 8. – С. 68 – 70. 6. Бардадим Т. О., Iванов О. В. Про асимптотичну нормальнiсть lα-оцiнок параметра нелiнiйної моделi регресiї // Теорiя ймовiрностей та мат. статистика. – 1999. – Вип. 60. – С. 1 – 10. 7. Chen X. R., Wu Y. H. Strong consistency of M -estimates in linear models // J. Multivar. Anal. – 1988. – 27. – P. 116 – 130. 8. Jurečková. Consistency of M -estimators in linear model generated by a nonmonotone and disconti- nuous ψ-function // Probab. Statist. – 1989. – 10. – P. 1 – 10. 9. Иванов А. В. О состоятельности lα-оценок параметров функции регрессии // Теория вероят- ности и мат. статистика. – 1990. – Вып. 42. – С. 42 – 48. 10. Liese F., Vajda I. Asymptotic normality of M -estimators in nonlinear regression // Res. Rept UTIA, Prague. – 1991. – № 1714. – 6 p. 11. Liese F., Vajda I. Consistency of M -estimators in nonlinear regression. – Ibid. – № 1713. – 19 p. 12. Liese F., Vajda I. Consistency of M -estimates in general regression models // J. Multivar. Anal. – 1994. – 50, № 1. – P. 93 – 114. 13. Liese F., Vajda I. Necessary and sufficient conditions for consistency of generalized M -estimates // Metrika. – 1995. – 42. – P. 291 – 324. 14. Liese F., Vajda I. A general asymptotic theory of M -estimators // Res. Rept. UTIA, Prague. – 1999. – № 1951. 15. Müller Ch. H. Robust planning and analysis of experiments // Lect. Notes Statist. – New York: Springer, 1997. 16. Liese F. Necessary and sufficient conditions for consistency of approximate M -estimators in nonli- near models // Proc. Prague Stochast. – 1998. – P. 357 – 360. 17. Arcones M. A. Asymptotic theory of M -estimators over a convex kernel // Econometric Theory. – 1998. – 14, № 4. – P. 387 – 422. 18. Wu Y., Zen M. M. A strongly consistent information criterion for linear model selection based on M -estimation // Probab. Theory and Relat. Fields. – 1999. – 113. – P. 599 – 625. 19. Geer van de S. A. Empirical processes in M -estimation. – Cambridge Univ. Press, 2000. 20. Орловський I. В. Конзистентнiсть оцiнок Коенкера – Бассета в нелiнiйних моделях регресiї // Наук. вiстi НТУУ „КПI”. – 2004. – № 3(35). – С. 144 – 150. 21. Iванов О. В., Орловський I. В. Асимптотична нормальнiсть оцiнок Коенкера – Бассета у не- лiнiйних моделях регресiї // Теорiя ймовiрностей та мат. статистика. – 2005. – Вип. 72. – С. 30 – 41. 22. Ivanov A. V., Orlovsky I. V. Parameter estimators of nonlinear quantile regression // Theory Stochast. Process. – 2005. – 11(27), № 3-4. – P. 82 – 91. ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11 1488 О. В. IВАНОВ, I. В. ОРЛОВСЬКИЙ 23. Koul H. L. M -estimators in linear models with long range dependent errors // Statist. and Probab. Lett. – 1992. – 14. – P. 153 – 164. 24. Koul H. L. Asymptotics of M -estimations in non-linear regression with long-range dependence errors // Proc. Athens Conf. Appl. Probab. and Time Ser. Analysis / Eds. P. M. Robinson and M. Rosenblatt: Lect. Notes Statist. – 1996. – 2. – P. 272 – 291. 25. Koul H. L., Mukherjee K. Regression quantiles and related processes under long range dependent errors // J. Multivar. Anal. – 1994. – 51. – P. 318 – 337. 26. Giraitis L., Koul H. L., Surgailis D. Asymptotic normality of regression estimators with long memory errors // Statist. and Probab. Lett. – 1996. – 29. – P. 317 – 335. 27. Koul H. L., Surgailis D. Asymptotic expansion of M -estimators with long memory errors // Ann. Statist. – 1997. – 25. – P. 818 – 850. 28. Koul H. L., Surgailis D. Second order behavior of M -estimators in linear regression with long- memory errors // J. Statist. Planning and Inference. – 2000. – 91. – P. 399 – 412. 29. Koul H. L., Surgailis D. Robust estimators in regression models with long memory errors // Theory and Application of Long-Range Dependence / Eds P. Doukhan, G. Oppenheim and M. S. Taqqu. – Boston: Birkhäuser, 2003. – P. 339 – 353. 30. Giraitis L., Koul H. L. Estimation of the dependence parameter in linear regression with long-range dependent errors // Statist. and Probab. Letters. – 1996. – 29. – P. 317 – 335. 31. Koul H. L., Baillie R. T., Surgailis D. Regression model fitting with a long memory covariance process // Economic Theory. – 2004. – 20. – P. 485 – 512. 32. Ivanov A. V., Leonenko N. N. Asymptotic behavior of M -estimators in continuous-time non-linear regression with long-range dependent errors // Random Oper. and Stochast. Equat. – 2002. – 10, № 3. – P. 201 – 222. 33. Ivanov A. V., Orlovsky I. V. Lp-estimates in nonlinear regression with long-range dependence // Theory Stochast. Processes. – 2002. – 7, № 3-4. – P. 38 – 49. 34. Iванов О. В., Орловський I. В. Конзистентнiсть М-оцiнок у нелiнiйних моделях регресiї з неперервним часом // Наук. вiстi НТУУ „КПI”. – 2005. – № 4. – С. 140 – 147. 35. Orlovsky I. V. M -estimates in nonlinear regression with weak dependence // Theory Stochast. Process. – 2003. – 9, №. 1-2. – P. 108 – 122. 36. Орловський I. В. Асимптотичнi властивостiM -оцiнок параметрiв нелiнiйних моделей регресiї: Дис. . . . канд. фiз.-мат. наук. – Київ, 2007. 37. Jennrich R. I. Asymptotic properties of non-linear least squares estimators // Ann. Math. Statist. – 1969. – 40. – P. 633 – 643. 38. Pfanzagl J. On the measurability and consistency of minimum contrast estimates // Metrika. – 1969. – 14. – P. 249 – 272. 39. Шметтерер Л. Введение в математическую статистику. – М.: Наука, 1976. 40. Ivanov A. V. Asymptotic theory of nonlinear regression. – Dordrecht: Kluwer Acad. Press, 1997. 41. Бхаттачария Р. Н., Ранга Рао Р. Аппроксимация нормальным распределением и асимптоти- ческие разложения. – М.: Наука, 1982. 42. Wilkinson J. H. The algebraic eigenvalue problem. – Oxford: Clarendon Press, 1965. 43. Гончаренко Ю. В., Ляшко С. И. Теорема Брауэра. – Киев: КИЙ, 2000. 44. Гихман И. И., Скороход А. В., Ядренко М. И. Теория вероятностей и математическая статис- тика. – Киев: Вища шк., 1988. Одержано 03.07.07, пiсля доопрацювання — 25.03.08 ISSN 1027-3190. Укр. мат. журн., 2008, т. 60, № 11
id umjimathkievua-article-3262
institution Ukrains’kyi Matematychnyi Zhurnal
keywords_txt_mv keywords
language Ukrainian
English
last_indexed 2026-03-24T02:39:12Z
publishDate 2008
publisher Institute of Mathematics, NAS of Ukraine
record_format ojs
resource_txt_mv umjimathkievua/8c/8eea7c67ba984a1bd51dc7165fb0e28c.pdf
spelling umjimathkievua-article-32622020-03-18T19:49:31Z Asymptotic normality of M-estimates in the classical nonlinear regression model Асимптотична нормальність M-оцінок у класичній нелінійній моделі регресії Ivanov, O. V. Orlovs’kyi, I. V. Іванов, О. В. Орловський, І. В. Sufficient conditions are obtained for the asymptotic normality of M-estimates of the unknown parameters of nonlinear regression models with discrete time and independent identically distributed errors of observations. Получены достаточные условия асимптотической нормальности M-оценок неизвестных параметров нелинейных моделей регрессии с дискретным временем и независимыми одинаково распределенными погрешностями наблюдений. Institute of Mathematics, NAS of Ukraine 2008-11-25 Article Article application/pdf https://umj.imath.kiev.ua/index.php/umj/article/view/3262 Ukrains’kyi Matematychnyi Zhurnal; Vol. 60 No. 11 (2008); 1470–1488 Український математичний журнал; Том 60 № 11 (2008); 1470–1488 1027-3190 uk en https://umj.imath.kiev.ua/index.php/umj/article/view/3262/3270 https://umj.imath.kiev.ua/index.php/umj/article/view/3262/3271 Copyright (c) 2008 Ivanov O. V.; Orlovs’kyi I. V.
spellingShingle Ivanov, O. V.
Orlovs’kyi, I. V.
Іванов, О. В.
Орловський, І. В.
Asymptotic normality of M-estimates in the classical nonlinear regression model
title Asymptotic normality of M-estimates in the classical nonlinear regression model
title_alt Асимптотична нормальність M-оцінок у класичній нелінійній моделі регресії
title_full Asymptotic normality of M-estimates in the classical nonlinear regression model
title_fullStr Asymptotic normality of M-estimates in the classical nonlinear regression model
title_full_unstemmed Asymptotic normality of M-estimates in the classical nonlinear regression model
title_short Asymptotic normality of M-estimates in the classical nonlinear regression model
title_sort asymptotic normality of m-estimates in the classical nonlinear regression model
url https://umj.imath.kiev.ua/index.php/umj/article/view/3262
work_keys_str_mv AT ivanovov asymptoticnormalityofmestimatesintheclassicalnonlinearregressionmodel
AT orlovskyiiv asymptoticnormalityofmestimatesintheclassicalnonlinearregressionmodel
AT ívanovov asymptoticnormalityofmestimatesintheclassicalnonlinearregressionmodel
AT orlovsʹkijív asymptoticnormalityofmestimatesintheclassicalnonlinearregressionmodel
AT ivanovov asimptotičnanormalʹnístʹmocínokuklasičníjnelíníjníjmodelíregresíí
AT orlovskyiiv asimptotičnanormalʹnístʹmocínokuklasičníjnelíníjníjmodelíregresíí
AT ívanovov asimptotičnanormalʹnístʹmocínokuklasičníjnelíníjníjmodelíregresíí
AT orlovsʹkijív asimptotičnanormalʹnístʹmocínokuklasičníjnelíníjníjmodelíregresíí