В теорії ймовірностей твердження відоме як закон повного математичного сподівання[1], закон повторних сподівань[2], правило вежі[3], закон Адама чи теорема згладжування[4] стверджує, що якщо
— випадкова величина, з визначеним матсподіванням
, а
— довільна випадкова величина на тому ймовірнісному просторі.
![{\displaystyle \operatorname {E} (X)=\operatorname {E} (\operatorname {E} (X\mid Y)),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2f474922469e6178e791d731c5f72b7b05a5a3c5)
тобто значення сподівання умовного матсподівання значення
для певного
дорівнює матсподіванню
.
У спеціальному випадку, для
- скінченного або зліченного розбиття простору елементарних подій, тоді
![{\displaystyle \operatorname {E} (X)=\sum _{i}{\operatorname {E} (X\mid A_{i})\operatorname {P} (A_{i})}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8f2c9820f1b9960111d21644ba1623f8510cfad2)
Припустимо, що дві фабрики постачають на ринок лампочки. Лампочки із заводу
працюють в середньому 5000 годин, тоді як лампи заводу
працюють в середньому впродовж 4000 годин. Відомо, що фабрика
постачає 60% від загальної кількості наявних ламп. Яка очікувана тривалість часу роботи придбаної лампочки?
Застосовуючи закон повного матсподівання отримаємо:
![{\displaystyle \operatorname {E} (L)=\operatorname {E} (L\mid X)\operatorname {P} (X)+\operatorname {E} (L\mid Y)\operatorname {P} (Y)=5000(0.6)+4000(0.4)=4600}](https://wikimedia.org/api/rest_v1/media/math/render/svg/184153cf68ec36a513637dfffaddd2d8b63d0f5a)
де
— тривалість роботи лампочки;
— ймовірність, що куплена лампочка виготовлена на заводі X;
— ймовірність, що куплена лампочка виготовлена на заводі Y;
— очікувана тривалість роботи лампочки виготовленої на заводі X;
— очікувана тривалість роботи лампочки виготовленої на заводі Y.
Отже, очікувана тривалість роботи кожної придбаної лампочки дорівнює 4600 годин.
Доведення для скінченних і зліченних випадків
[ред. | ред. код]
Нехай випадкові величини
та
визначені на одному ймовірнісному просторі, припустимо скінченну чи зліченну множину скінченних значень. Припустимо що
визначена, тобто
. Якщо
— подрібнення ймовірнісного простору
, то
![{\displaystyle \operatorname {E} (X)=\sum _{i}{\operatorname {E} (X\mid A_{i})\operatorname {P} (A_{i})}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8f2c9820f1b9960111d21644ba1623f8510cfad2)
![{\displaystyle {\begin{aligned}\operatorname {E} \left(\operatorname {E} (X\mid Y)\right)&=\operatorname {E} {\Bigg [}\sum _{x}x\cdot \operatorname {P} (X=x\mid Y){\Bigg ]}\\[6pt]&=\sum _{y}{\Bigg [}\sum _{x}x\cdot \operatorname {P} (X=x\mid Y=y){\Bigg ]}\cdot \operatorname {P} (Y=y)\\[6pt]&=\sum _{y}\sum _{x}x\cdot \operatorname {P} (X=x,Y=y).\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8dee2c44fb985d634ef865e31ae2b891acff2974)
Якщо ряд скінченний, то можемо змінити порядок сумування й попередній вираз запишеться
![{\displaystyle {\begin{aligned}\sum _{x}\sum _{y}x\cdot \operatorname {P} (X=x,Y=y)&=\sum _{x}x\sum _{y}\operatorname {P} (X=x,Y=y)\\[6pt]&=\sum _{x}x\cdot \operatorname {P} (X=x)\\[6pt]&=\operatorname {E} (X).\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3708bad7046d61abb7f7e6970b3ec2ec7650a585)
Якщо ж, з іншого боку, ряд нескінченний, то його збіжність не може бути умовною через припущення, що
Ряд збіжний абсолютно якщо обидвоє,
і
- скінченні і розбіжний до нескінченності, якщо чи
чи
— нескінченне. В обидвох випадках порядок сумування можна змінити не змінюючи суми.
Нехай
— ймовірнісний простір, з визначеними на ньому σ-алгебрами
. Для випадкової величини
на такому просторі, закон згладжування стверджує, що якщо
- визначене, тобто
, тоді
![{\displaystyle \operatorname {E} [\operatorname {E} [X\mid {\mathcal {G}}_{2}]\mid {\mathcal {G}}_{1}]=\operatorname {E} [X\mid {\mathcal {G}}_{1}]\quad {\text{(майже напевно)}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6ae84de00481f90e6a36ac6a7a230b7042c0b0c4)
Доведення. Завдяки тому, що умовне матсподівання це похідна Радона – Нікодима, доведення закону згладжування зводиться до перевірки таких двох властивостей:
є
-вимірною
для всіх ![{\displaystyle G_{1}\in {\mathcal {G}}_{1}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/32407bd8d66b1513e0d3b4cdfb46134bd3d58d36)
Перша з цих властивостей випливає з означення умовного матсподівання. Для доведення другого,
![{\displaystyle {\begin{aligned}\min \left(\int _{G_{1}}X_{+}\,d\operatorname {P} ,\int _{G_{1}}X_{-}\,d\operatorname {P} \right)&\leq \min \left(\int _{\Omega }X_{+}\,d\operatorname {P} ,\int _{\Omega }X_{-}\,d\operatorname {P} \right)\\[4pt]&=\min(\operatorname {E} [X_{+}],\operatorname {E} [X_{-}])<\infty ,\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2e371ba89f0588fc1532b987288b5aac461fdfba)
отже інтеграл
визначений (не дорівнює
).
Друга властивість правильна, бо з
випливає
![{\displaystyle \int _{G_{1}}\operatorname {E} [\operatorname {E} [X\mid {\mathcal {G}}_{2}]\mid {\mathcal {G}}_{1}]d\operatorname {P} =\int _{G_{1}}\operatorname {E} [X\mid {\mathcal {G}}_{2}]d\operatorname {P} =\int _{G_{1}}Xd\operatorname {P} .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fb0e026885f9b484604a47673f44ef76e377dd03)
Висновок. В особливому випадку, коли
і
, закон згладжування зводиться до
![{\displaystyle \operatorname {E} [\operatorname {E} [X\mid Y]]=\operatorname {E} [X].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6706569e29099b285c9c9032d5ea122c6de71098)
![{\displaystyle {\begin{aligned}\sum \limits _{i}\operatorname {E} (X\mid A_{i})\operatorname {P} (A_{i})&=\sum \limits _{i}\int \limits _{\Omega }X(\omega )\operatorname {P} (d\omega \mid A_{i})\cdot \operatorname {P} (A_{i})\\&=\sum \limits _{i}\int \limits _{\Omega }X(\omega )\operatorname {P} (d\omega \cap A_{i})\\&=\sum \limits _{i}\int \limits _{\Omega }X(\omega )I_{A_{i}}(\omega )\operatorname {P} (d\omega )\\&=\sum \limits _{i}\operatorname {E} (XI_{A_{i}}),\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/edb6e0492647392cb39c42939fa05b98e80373d8)
де
- характеристична функція множини
.
Якщо розбиття
- скінченне, то, за властивістю лінійності, попередній вираз записується у вигляді
![{\displaystyle \operatorname {E} \left(\sum \limits _{i=0}^{n}XI_{A_{i}}\right)=\operatorname {E} (X),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b1717aa210ea13719ae747a8ece310a4b8c82fc2)
що й треба було показати.
Якщо ж розбиття
- нескінченне, то застосовуючи теорему про мажоровану збіжність можемо показати
![{\displaystyle \operatorname {E} \left(\sum \limits _{i=0}^{n}XI_{A_{i}}\right)\to \operatorname {E} (X).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/58431bb99c2d7e21a975156649d3310d6190f81d)
Справді, для кожного
,
![{\displaystyle \left|\sum _{i=0}^{n}XI_{A_{i}}\right|\leq |X|I_{\mathop {\bigcup } \limits _{i=0}^{n}A_{i}}\leq |X|.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ad40c10f8b9e0e74af21609ba1e97555c0527a1e)
Позаяк кожен елемент множини
належить певному елементу подрібнення
, легко перевірити що послідовність
поточково збіжна до X. За припущенням у твердженні,
. Застосовуючи теорему про мажоровану збіжність отримуємо бажане твердження.
- Карташов М. В. Імовірність, процеси, статистика. — Київ : ВПЦ Київський університет, 2007. — 504 с.
- Гнеденко Б. В. Курс теории вероятностей. — 6-е изд. — Москва : Наука, 1988. — 446 с.(рос.)
- Гихман И. И., Скороход А. В., Ядренко М. В. Теория вероятностей и математическая статистика. — Київ : Вища школа, 1988. — 436 с.(рос.)
- Billingsley, Patrick (1995). Probability and measure. New York: John Wiley & Sons. ISBN 0-471-00710-2. (англ.) (Теорема 34.4)
- Christopher Sims, "Notes on Random Variables, Expectations, Probability Densities, and Martingales", especially equations (16) through (18)