Дельта-метод (англ. Delta method) у статистиці — твердження щодо наближеного ймовірнісного розподілу функції асимптотично нормальної статистичної оцінки за відомої граничної варіації цієї оцінки.
У той час, як метод дельта легко узагальнюється до багатовимірного випадку, точне обґрунтування цієї методики легше продемонструвати в одновимірних умовах. Грубо кажучи, якщо є послідовність випадкових величин
, що задовольняють
![{\displaystyle {{\sqrt {n}}[X_{n}-\theta ]\,{\xrightarrow {D}}\,{\mathcal {N}}(0,\sigma ^{2})},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d0c0cc5e1bb093d98be669c7ee437eea66d30816)
де
та
— скінченні константи і
позначає збіжність за розподілом, тоді
![{\displaystyle {{\sqrt {n}}[g(X_{n})-g(\theta )]\,{\xrightarrow {D}}\,{\mathcal {N}}(0,\sigma ^{2}[g'(\theta )]^{2})}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e24d3f2f9ce87edd4e7735ec4ab1f32a919dcc82)
для довільної функції g, яка задовольняє властивість:
(існує і не дорівнює нулю).
Доведення твердження досить просте у випадку неперервної похідної
. Для початку скористаємось теоремою Лагранжа про середнє:
![{\displaystyle g(X_{n})=g(\theta )+g'({\tilde {\theta }})(X_{n}-\theta ),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/57cf6d6ec64cfe9cdcfb95f9c401489f937e4110)
де
знаходиться між Xn та
.
Зауважте, що оскільки
та
, то відповідно маємо
і оскільки
неперервна, то, застосовуючи теорему про неперервне відображення, маємо
![{\displaystyle g'({\tilde {\theta }})\,{\xrightarrow {P}}\,g'(\theta ),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ef61fd7f4e9b692e89fae0c3da16a37f85735985)
де
позначає збіжність за розподілом.
Після тривіальних перетворень і множення на
маємо
![{\displaystyle {\sqrt {n}}[g(X_{n})-g(\theta )]=g'\left({\tilde {\theta }}\right){\sqrt {n}}[X_{n}-\theta ].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b513a1a33095be13ff8f87a9ccc51bc61267d43a)
Оскільки
![{\displaystyle {{\sqrt {n}}[X_{n}-\theta ]{\xrightarrow {D}}{\mathcal {N}}(0,\sigma ^{2})}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9c66f8196a977e31de2cdc705d2dfd7924d58763)
за припущенням і використовуючи теорему Слуцького випливає
![{\displaystyle {{\sqrt {n}}[g(X_{n})-g(\theta )]{\xrightarrow {D}}{\mathcal {N}}(0,\sigma ^{2}[g'(\theta )]^{2})}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/411bbe64fc07d9b513ed6f0219381bed0b8bd470)
Що й треба було показати.
Доведення з явним використанням О-символіки
[ред. | ред. код]
Альтернативно, можна було б додати ще один крок в кінці для отримання порядкового наближення:
![{\displaystyle {\begin{aligned}{\sqrt {n}}[g(X_{n})-g(\theta )]&=g'\left({\tilde {\theta }}\right){\sqrt {n}}[X_{n}-\theta ]={\sqrt {n}}[X_{n}-\theta ]\left[g'({\tilde {\theta }})+g'(\theta )-g'(\theta )\right]\\&={\sqrt {n}}[X_{n}-\theta ]\left[g'(\theta )\right]+{\sqrt {n}}[X_{n}-\theta ]\left[g'({\tilde {\theta }})-g'(\theta )\right]\\&={\sqrt {n}}[X_{n}-\theta ]\left[g'(\theta )\right]+O_{p}(1)\cdot o_{p}(1)\\&={\sqrt {n}}[X_{n}-\theta ]\left[g'(\theta )\right]+o_{p}(1)\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/265525f1070b120eddec9360112f98253567c0ce)
Що показує прямування наближення за ймовірністю до нуля.
За означенням, конзистентна оцінка B збігається за ймовірністю до її справжнього значення β, і, застосовуючи центральну граничну теорему, можна отримати асимптотичну нормальність:
![{\displaystyle {\sqrt {n}}\left(B-\beta \right)\,{\xrightarrow {D}}\,N\left(0,\Sigma \right),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b9828d42068d36601945e6cf26460ff3281788db)
де n — число спостережень і Σ — матриця коваріації (симетрична позитивно напів-визначена). Нехай треба оцінити варіацію функції h оцінки B. Беручи до уваги тільки два перші члени розкладу Тейлора, з використанням векторного позначення градієнта, можемо оцінити h(B) як
![{\displaystyle h(B)\approx h(\beta )+\nabla h(\beta )^{T}\cdot (B-\beta )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/90d65d4047dd1027d3f0ceca4c763a1402128ad3)
звідки випливає, що варіація h(B) наближено дорівнює
![{\displaystyle {\begin{aligned}\operatorname {Var} \left(h(B)\right)&\approx \operatorname {Var} \left(h(\beta )+\nabla h(\beta )^{T}\cdot (B-\beta )\right)\\&=\operatorname {Var} \left(h(\beta )+\nabla h(\beta )^{T}\cdot B-\nabla h(\beta )^{T}\cdot \beta \right)\\&=\operatorname {Var} \left(\nabla h(\beta )^{T}\cdot B\right)\\&=\nabla h(\beta )^{T}\cdot \operatorname {Cov} (B)\cdot \nabla h(\beta )\\&=\nabla h(\beta )^{T}\cdot (\Sigma /n)\cdot \nabla h(\beta )\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9acbe1e4fa89b2062ef0614ed8d4416427ef87a8)
Застосовуючи теорему Лагранжа про середнє (для дійснозначних функцій багатьох змінних), можна переконатись, що доведення не спирається на той факт, що враховуються тільки наближення першого порядку.
Отже, з дельта-методу випливає
![{\displaystyle {\sqrt {n}}\left(h(B)-h(\beta )\right)\,{\xrightarrow {D}}\,N\left(0,\nabla h(\beta )^{T}\cdot \Sigma \cdot \nabla h(\beta )\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ebf24a2ec5d194fda14318ec36b9939cee82bd18)
чи в одновимірному випадку,
![{\displaystyle {\sqrt {n}}\left(h(B)-h(\beta )\right)\,{\xrightarrow {D}}\,N\left(0,\sigma ^{2}\cdot \left(h^{\prime }(\beta )\right)^{2}\right).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/33d4ec20f5da35f8b70a160700a6ccec83657fdb)
- Casella, G. and Berger, R. L. (2002), Statistical Inference, 2nd ed.
- Cramér, H. (1946), Mathematical Methods of Statistics, p. 353.
- Davison, A. C. (2003), Statistical Models, pp. 33-35.
- Greene, W. H. (2003), Econometric Analysis, 5th ed., pp. 913f.
- Klein, L. R. (1953), A Textbook of Econometrics, p. 258.