Умовне математичне сподівання в теорії ймовірностей — середнє значення випадкової величини відносно умовного розподілу .
Вважатимемо, що задано ймовірнісний простір
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,{\mathcal {F}},\mathbb {P} )}
. Нехай
X
:
Ω
→
R
{\displaystyle X:\Omega \to \mathbb {R} }
— інтегровна випадкова величина, тобто
E
|
X
|
<
∞
{\displaystyle \mathbb {E} \vert X\vert <\infty }
. Нехай також
G
⊂
F
{\displaystyle {\mathcal {G}}\subset {\mathcal {F}}}
— під-σ-алгебра σ-алгебри
F
{\displaystyle {\mathcal {F}}}
.
Випадкова величина
X
^
{\displaystyle {\hat {X}}}
називається умовним математичним сподіванням
X
{\displaystyle X}
відносно σ-алгебри
G
{\displaystyle {\mathcal {G}}}
, якщо
X
^
{\displaystyle {\hat {X}}}
вимірна відносно
G
{\displaystyle {\mathcal {G}}}
.
∀
A
∈
G
,
E
[
X
^
1
a
]
=
E
[
X
1
a
]
{\displaystyle \forall A\in {\mathcal {G}},\quad \mathbb {E} \left[{\hat {X}}\mathbf {1} _{a}\right]=\mathbb {E} [X\mathbf {1} _{a}]}
,
де
1
a
{\displaystyle \mathbf {1} _{a}}
— індикатор події
A
{\displaystyle A}
.
Умовне математичне сподівання позначається
E
[
X
∣
G
]
{\displaystyle \mathbb {E} [X\mid {\mathcal {G}}]}
.
Приклад. Нехай
Ω
=
{
1
,
2
,
3
,
4
}
,
F
=
2
Ω
,
P
(
ω
)
=
1
/
4
,
ω
=
1
,
…
,
4.
{\displaystyle \Omega =\{1,2,3,4\},\ {\mathcal {F}}=2^{\Omega },\,\mathbb {P} (\omega )=1/4,\ \omega =1,\ldots ,4.}
Покладемо
G
=
{
∅
{
1
,
2
}
,
{
3
,
4
}
,
Ω
}
{\displaystyle {\mathcal {G}}=\{\varnothing \{1,2\},\{3,4\},\Omega \}}
. Тоді
G
{\displaystyle {\mathcal {G}}}
- σ-алгебра, і
G
⊂
F
{\displaystyle {\mathcal {G}}\subset {\mathcal {F}}}
. Нехай випадкова величина
X
{\displaystyle X}
має вигляд
X
(
ω
)
=
ω
2
,
ω
=
1
,
…
,
4
{\displaystyle X(\omega )=\omega ^{2},\;\omega =1,\ldots ,4}
.
Тоді
E
[
X
∣
G
]
(
ω
)
=
{
5
2
,
ω
=
1
,
2
25
2
,
ω
=
3
,
4.
{\displaystyle \mathbb {E} [X\mid {\mathcal {G}}](\omega )=\left\{{\begin{matrix}{\frac {5}{2}},&\omega =1,2\\[5pt]{\frac {25}{2}},&\omega =3,4.\end{matrix}}\right.}
Нехай
C
=
{
C
α
}
⊂
F
{\displaystyle {\mathcal {C}}=\{C_{\alpha }\}\subset {\mathcal {F}}}
— довільне сімейство подій. Тоді умовним математичним сподіванням
X
{\displaystyle X}
відносно
C
{\displaystyle {\mathcal {C}}}
називається
E
[
X
∣
C
]
≡
E
[
X
∣
σ
(
C
)
]
{\displaystyle \mathbb {E} [X\mid {\mathcal {C}}]\equiv \mathbb {E} [X\mid \sigma ({\mathcal {C}})]}
,
де
σ
(
C
)
{\displaystyle \sigma ({\mathcal {C}})}
— мінімальна сигма-алгебра, що містить
C
{\displaystyle {\mathcal {C}}}
.
Приклад. Нехай
Ω
=
{
1
,
2
,
3
,
4
}
,
F
=
2
Ω
,
P
(
ω
)
=
1
/
4
,
ω
=
1
,
…
,
4.
{\displaystyle \Omega =\{1,2,3,4\},\ {\mathcal {F}}=2^{\Omega },\,\mathbb {P} (\omega )=1/4,\ \omega =1,\ldots ,4.}
Нехай також
C
=
{
1
,
2
,
3
}
{\displaystyle C=\{1,2,3\}}
. Тоді
σ
(
C
)
=
{
∅
{
1
,
2
,
3
}
,
{
4
}
,
ω
}
⊂
F
{\displaystyle \sigma (C)=\{\varnothing \{1,2,3\},\{4\},\omega \}\subset {\mathcal {F}}}
. Не випадкова величина
X
{\displaystyle X}
має вигляд
X
(
ω
)
=
ω
2
,
ω
=
1
,
…
,
4
{\displaystyle X(\omega )=\omega ^{2},\;\omega =1,\ldots ,4}
.
Тоді
E
[
X
∣
G
]
(
ω
)
=
{
14
3
,
ω
=
1
,
2
,
3
16
ω
=
4.
{\displaystyle \mathbb {E} [X\mid {\mathcal {G}}](\omega )=\left\{{\begin{matrix}{\frac {14}{3}},&\omega =1,2,3\\[5pt]16&\omega =4.\end{matrix}}\right.}
Нехай
Y
:
Ω
→
R
{\displaystyle Y:\Omega \to \mathbb {R} }
інша випадкова величина. Тоді умовним математичним сподіванням
X
{\displaystyle X}
відносно
Y
{\displaystyle Y}
називається
E
[
X
∣
Y
]
≡
E
[
X
∣
σ
(
Y
)
]
{\displaystyle \mathbb {E} [X\mid Y]\equiv \mathbb {E} [X\mid \sigma (Y)]}
,
де
σ
(
Y
)
{\displaystyle \sigma (Y)}
— σ-алгебра, породжена випадковою величиною
Y
{\displaystyle Y}
.
Інше визначення УМС
X
{\displaystyle X}
відносно
Y
{\displaystyle Y}
:
E
(
X
∣
Y
)
=
E
(
X
∣
Y
=
y
)
∣
y
=
Y
{\displaystyle \mathbb {E} (X\mid Y)=\mathbb {E} (X\mid Y=y)\mid y=Y}
Таке визначення конструктивно описує алгоритм знаходження УМС:
знайти математичне сподівання випадкової величини
X
{\displaystyle X}
, приймаючи
Y
{\displaystyle Y}
за константу
y
{\displaystyle y}
;
Потім в отриманому виразі
y
{\displaystyle y}
назад замінити на випадкову величину
Y
{\displaystyle Y}
.
Приклад :
X
≡
N
(
a
,
σ
2
)
{\displaystyle X\equiv N(a,\sigma ^{2})}
E
[
X
Y
∣
Y
]
=
E
[
X
y
]
∣
y
=
Y
=
1
y
E
[
X
]
∣
y
=
Y
=
a
y
∣
y
=
Y
=
a
Y
{\displaystyle \mathbb {E} \left[{\frac {X}{Y}}\mid Y\right]=\mathbb {E} \left[{\frac {X}{y}}\right]\mid _{y=Y}={\frac {1}{y}}\mathbb {E} [X]\mid _{y=Y}={\frac {a}{y}}\mid _{y=Y}={\frac {a}{Y}}}
Нехай
B
∈
F
{\displaystyle B\in {\mathcal {F}}}
— довільна подія, і
1
b
{\displaystyle \mathbf {1} _{b}}
— його індикатор. Тоді умовною ймовірністю
B
{\displaystyle B}
відносно
G
{\displaystyle {\mathcal {G}}}
називається
P
(
B
∣
G
)
≡
E
[
1
b
∣
G
]
{\displaystyle \mathbb {P} (B\mid {\mathcal {G}})\equiv \mathbb {E} [\mathbf {1} _{b}\mid {\mathcal {G}}]}
.
Умовне математичне сподівання — це випадкова величина, а не число!
Умовне математичне сподівання визначене з точністю до подій ймовірності нуль . Таким чином, якщо
X
^
1
=
E
[
X
∣
G
]
{\displaystyle {\hat {X}}_{1}=\mathbb {E} [X\mid {\mathcal {G}}]}
і
X
^
1
=
X
^
2
{\displaystyle {\hat {X}}_{1}={\hat {X}}_{2}}
P
{\displaystyle \mathbb {P} }
-майже усюди , то
X
^
2
=
E
[
X
∣
G
]
{\displaystyle {\hat {X}}_{2}=\mathbb {E} [X\mid {\mathcal {G}}]}
. Ототожнивши випадкові величини, що розрізняються лише на подіях ймовірності нуль, отримуємо єдиність умовного математичного сподівання.
Узявши
A
=
Ω
{\displaystyle A=\Omega }
, отримуємо за визначенням:
E
[
X
]
=
E
[
E
[
X
∣
G
]
]
{\displaystyle \mathbb {E} [X]=\mathbb {E} [\mathbb {E} [X\mid {\mathcal {G}}]]}
,
і зокрема справедлива формула повної ймовірності :
P
(
B
)
=
E
[
P
(
B
∣
G
)
]
{\displaystyle \mathbb {P} (B)=\mathbb {E} [\mathbb {P} (B\mid {\mathcal {G}})]}
.
Нехай σ-алгебра
G
=
σ
(
C
1
,
…
,
C
n
)
{\displaystyle {\mathcal {G}}=\sigma (C_{1},\ldots ,C_{n})}
породжена розбиттям
{
C
i
}
i
=
1
∞
{\displaystyle \{C_{i}\}_{i=1}^{\infty }}
. Тоді
E
[
X
∣
G
]
=
∑
i
=
1
∞
E
[
X
∣
C
i
]
1
C
i
{\displaystyle \mathbb {E} [X\mid {\mathcal {G}}]=\sum _{i=1}^{\infty }\mathbb {E} [X\mid C_{i}]\mathbf {1} _{C_{i}}}
.
Зокрема формула повної ймовірності приймає класичний вигляд:
P
(
A
∣
G
)
=
∑
i
=
1
∞
P
(
A
∣
C
i
)
1
C
i
{\displaystyle \mathbb {P} (A\mid {\mathcal {G}})=\sum \limits _{i=1}^{\infty }\mathbb {P} (A\mid C_{i})\mathbf {1} _{C_{i}}}
,
а відповідно
P
(
A
)
=
∑
i
=
1
∞
P
(
A
∣
C
i
)
P
(
C
i
)
{\displaystyle \mathbb {P} (A)=\sum \limits _{i=1}^{\infty }\mathbb {P} (A\mid C_{i})\,\mathbb {P} (C_{i})}
.
Якщо
X
^
=
E
[
X
∣
Y
]
{\displaystyle {\hat {X}}=\mathbb {E} [X\mid Y]}
, то існує Борелева функція
h
:
R
→
R
{\displaystyle h:\mathbb {R} \to \mathbb {R} }
, така що
X
^
=
h
(
Y
)
{\displaystyle {\hat {X}}=h(Y)}
.
Умовне математичне сподівання
X
{\displaystyle X}
щодо події
{
Y
=
y
}
{\displaystyle \{Y=y\}}
за визначенням рівне
E
[
X
∣
Y
=
y
]
≡
h
(
y
)
{\displaystyle \mathbb {E} [X\mid Y=y]\equiv h(y)}
.
Якщо
X
≥
0
{\displaystyle X\geq 0}
м.н. , то
E
[
X
∣
G
]
≥
0
{\displaystyle \mathbb {E} [X\mid {\mathcal {G}}]\geq 0}
п.н.
Якщо
X
{\displaystyle X}
незалежна від
G
{\displaystyle {\mathcal {G}}}
, то
E
[
X
∣
G
]
=
E
[
X
]
{\displaystyle \mathbb {E} [X\mid {\mathcal {G}}]=\mathbb {E} [X]}
м.н.
Зокрема, якщо
X
,
Y
{\displaystyle X,Y}
незалежні випадкові величини, то
E
[
X
∣
Y
]
=
E
[
X
]
{\displaystyle \mathbb {E} [X\mid Y]=\mathbb {E} [X]}
м.н.
Якщо
G
1
,
G
2
{\displaystyle {\mathcal {G}}_{1},{\mathcal {G}}_{2}}
— дві σ-алгебри, такі що
G
1
⊂
G
2
⊂
F
{\displaystyle {\mathcal {G}}_{1}\subset {\mathcal {G}}_{2}\subset {\mathcal {F}}}
, то
E
[
E
[
X
∣
G
2
]
∣
G
1
]
=
E
[
X
∣
G
1
]
{\displaystyle \mathbb {E} [\mathbb {E} [X\mid {\mathcal {G}}_{2}]\mid {\mathcal {G}}_{1}]=\mathbb {E} [X\mid {\mathcal {G}}_{1}]}
.
Якщо
X
{\displaystyle X}
-
G
{\displaystyle {\mathcal {G}}}
-вимірна, і
Y
{\displaystyle Y}
— випадкова величина, така що
Y
,
X
Y
∈
L
1
{\displaystyle Y,XY\in L^{1}}
, то
E
[
X
Y
∣
G
]
=
X
E
[
Y
∣
G
]
{\displaystyle \mathbb {E} [XY\mid {\mathcal {G}}]=X\,\mathbb {E} [Y\mid {\mathcal {G}}]}
.
"Математичне сподівання прибирає умову". Це правило вірне для УМС відносно випадкової величини (УМС в такому разі буде випадковою величиною) і для умовної ймовірності відносно випадкової величини
E
[
E
(
X
∣
Y
)
]
=
E
(
X
)
{\displaystyle \mathbb {E} [\mathbb {E} (X\mid Y)]=\mathbb {E} (X)}
.
Нехай
Y
{\displaystyle Y}
— дискретна випадкова величина, розподіл якої задається функцією ймовірності
P
(
Y
=
y
j
)
≡
p
y
(
y
j
)
=
p
j
>
0
,
j
=
1
,
2
,
…
{\displaystyle \mathbb {P} (Y=y_{j})\equiv p_{y}(y_{j})=p_{j}>0,\;j=1,2,\ldots }
. Тоді система подій
{
Y
=
y
j
}
{\displaystyle \{Y=y_{j}\}}
є розбиттям
Ω
{\displaystyle \Omega }
, і
E
[
X
∣
Y
]
=
∑
j
=
1
∞
E
[
X
∣
Y
=
y
j
]
1
{
Y
=
y
j
}
{\displaystyle \mathbb {E} [X\mid Y]=\sum \limits _{j=1}^{\infty }\mathbb {E} [X\mid Y=y_{j}]\mathbf {1} _{\{Y=y_{j}\}}}
,
а
E
[
X
∣
Y
=
y
j
]
=
E
j
[
X
]
{\displaystyle \mathbb {E} [X\mid Y=y_{j}]=\mathbb {E} _{j}[X]}
,
де
E
j
{\displaystyle \mathbb {E} _{j}}
означає математичне сподівання узяте щодо умовної ймовірності
P
j
(
⋅
)
=
P
(
⋅
∣
Y
=
y
j
)
{\displaystyle \mathbb {P} _{j}(\cdot )=\mathbb {P} (\cdot \mid Y=y_{j})}
.
Якщо випадкова величина
X
{\displaystyle X}
також дискретна, то
E
[
X
∣
Y
=
y
j
]
=
∑
i
=
1
∞
x
i
P
(
X
=
x
i
∣
Y
=
y
j
)
=
∑
i
=
1
∞
x
i
p
X
∣
Y
(
x
i
∣
y
j
)
{\displaystyle \mathbb {E} [X\mid Y=y_{j}]=\sum \limits _{i=1}^{\infty }x_{i}\ \mathbb {P} (X=x_{i}\mid Y=y_{j})=\sum \limits _{i=1}^{\infty }x_{i}\ p_{X\mid Y}(x_{i}\mid y_{j})}
,
де
p
X
∣
Y
{\displaystyle p_{X\mid Y}}
— умовна функція ймовірності випадкової величини
X
{\displaystyle X}
відносно
Y
{\displaystyle Y}
.
УМС для абсолютно неперервних випадкових величин[ ред. | ред. код ]
Нехай
X
,
Y
{\displaystyle X,Y}
- випадкові величини, такі що вектор
(
X
,
Y
)
⊤
{\displaystyle (X,Y)^{\top }}
абсолютно неперервний , і його розподіл задається густиною ймовірності
f
X
,
Y
(
x
,
y
)
{\displaystyle f_{X,Y}(x,y)}
. Введемо умовну щільність
f
X
∣
Y
{\displaystyle f_{X\mid Y}}
, поклавши за визначенням
f
X
∣
Y
(
x
∣
y
)
=
f
X
,
Y
(
x
,
y
)
f
Y
(
y
)
{\displaystyle f_{X\mid Y}(x\mid y)={\frac {f_{X,Y}(x,y)}{f_{Y}(y)}}}
,
де
f
Y
{\displaystyle f_{Y}}
- щільність імовірності випадкової величини
Y
{\displaystyle Y}
. Тоді
E
[
X
∣
Y
]
=
h
(
Y
)
{\displaystyle \mathbb {E} [X\mid Y]=h(Y)}
,
де функція
h
{\displaystyle h}
має вигляд
h
(
y
)
=
∫
−
∞
∞
x
f
X
∣
Y
(
x
∣
y
)
d
x
{\displaystyle h(y)=\int \limits _{-\infty }^{\infty }x\,f_{X\mid Y}(x\mid y)\,dx}
.
Зокрема,
E
[
X
∣
Y
=
y
j
]
=
∫
−
∞
∞
x
f
X
∣
Y
(
x
∣
y
j
)
d
x
{\displaystyle \mathbb {E} [X\mid Y=y_{j}]=\int \limits _{-\infty }^{\infty }x\,f_{X\mid Y}(x\mid y_{j})\,dx}
.
Розглянемо Простір випадкових величин із скінченним другим моментом
L
2
{\displaystyle L^{2}}
. У ньому визначені скалярний добуток
⟨
X
,
Y
⟩
≡
E
[
X
Y
]
,
∀
X
,
y
∈
L
2
{\displaystyle \langle X,Y\rangle \equiv \mathbb {E} [XY],\;\forall X,y\in L^{2}}
,
і породжена ним норма
‖
X
‖
=
E
[
X
2
]
,
∀
X
∈
L
2
{\displaystyle \|X\|={\sqrt {\mathbb {E} \left[X^{2}\right]}},\;\forall X\in L^{2}}
.
Множина всіх випадкових величин
L
G
2
{\displaystyle L_{\mathcal {G}}^{2}}
з скінченним другим моментом і вимірних відносно
G
{\displaystyle {\mathcal {G}}}
, де
G
⊂
F
{\displaystyle {\mathcal {G}}\subset {\mathcal {F}}}
, є підпростором
L
2
{\displaystyle L^{2}}
. Тоді оператор
Π
L
G
2
:
L
2
→
L
2
{\displaystyle \Pi _{L_{\mathcal {G}}^{2}}:L^{2}\to L^{2}}
, що задається рівністю
Π
L
G
2
(
X
)
=
E
[
X
∣
G
]
{\displaystyle \Pi _{L_{\mathcal {G}}^{2}}(X)=\mathbb {E} [X\mid {\mathcal {G}}]}
,
є оператором ортогонального проектування на
L
G
2
{\displaystyle L_{\mathcal {G}}^{2}}
. Зокрема:
Умовне математичне сподівання
E
[
X
∣
G
]
{\displaystyle \mathbb {E} [X\mid {\mathcal {G}}]}
— це найкраще середньо-квадратичне наближення
X
{\displaystyle X}
G
{\displaystyle {\mathcal {G}}}
-вимірними випадковими величинами:
‖
X
−
E
[
X
∣
G
]
‖
=
inf
Z
∈
L
G
2
‖
X
−
Z
‖
{\displaystyle \|X-\mathbb {E} [X\mid {\mathcal {G}}]\|=\inf \limits _{Z\in L_{\mathcal {G}}^{2}}\|X-Z\|}
.
⟨
X
,
Z
⟩
=
⟨
E
[
X
∣
G
]
,
Z
⟩
,
∀
Z
∈
L
G
2
{\displaystyle \langle X,Z\rangle =\langle \mathbb {E} [X\mid {\mathcal {G}}],Z\rangle ,\;\forall Z\in L_{\mathcal {G}}^{2}}
.
Π
L
G
2
2
=
Π
L
G
2
{\displaystyle \Pi _{L_{\mathcal {G}}^{2}}^{2}=\Pi _{L_{\mathcal {G}}^{2}}}
.
Карташов М. В. Імовірність, процеси, статистика . — Київ : ВПЦ Київський університет , 2007. — 504 с.
Гнеденко Б. В. Курс теории вероятностей . — 6-е изд. — Москва : Наука , 1988. — 446 с.(рос.)
Гихман И. И. , Скороход А. В. , Ядренко М. В. Теория вероятностей и математическая статистика . — Київ : Вища школа , 1988. — 436 с.(рос.)
Capinski, Marek, Kopp, Peter E. Measure, Integral and Probability. Springer Verlag 2004 ISBN 9781852337810
Williams D., Probability with Martingales , Cambridge University Press , 1991, ISBN 0-521-40605-6