В теория вероятности, то закон полной ковариации,[1] формула ковариационного разложения, или же формула условной ковариации заявляет, что если Икс, Y, и Z находятся случайные переменные на том же вероятностное пространство, а ковариация из Икс и Y конечно, то
![{ displaystyle operatorname {cov} (X, Y) = operatorname {E} ( operatorname {cov} (X, Y mid Z)) + operatorname {cov} ( operatorname {E} (X mid Z), operatorname {E} (Y mid Z)).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ff403e22042b5e69222eeb3534b83e695f0c6b56)
Номенклатура в названии статьи соответствует фразе закон полной дисперсии. Некоторые авторы теории вероятностей называют это "условная ковариация формула "[2] или используйте другие имена.
(The условные ожидаемые значения E ( Икс | Z ) и E ( Y | Z ) - случайные величины, значения которых зависят от значения Z. Обратите внимание, что условное ожидаемое значение Икс Учитывая мероприятие Z = z является функцией z. Если мы напишем E ( Икс | Z = z) = грамм(z), то случайная величина E ( Икс | Z ) является грамм(Z). Подобные комментарии относятся и к условной ковариации.)
Доказательство
Закон полной ковариации можно доказать с помощью закон полного ожидания: Первый,
![{ displaystyle operatorname {cov} (X, Y) = operatorname {E} [XY] - operatorname {E} [X] operatorname {E} [Y]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f1640f54ab44b3f8b7b3fd6ce9b44e47f6576700)
из простого стандартного тождества ковариаций. Затем мы применяем закон полного ожидания, обусловливая случайную величину Z:
![{ displaystyle = operatorname {E} { big [} operatorname {E} [XY mid Z] { big]} - operatorname {E} { big [} operatorname {E} [X mid Z] { big]} operatorname {E} { big [} operatorname {E} [Y mid Z] { big]}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e73873e9bb5e80b4f254985371019560dde3459e)
Теперь перепишем член внутри первого математического ожидания, используя определение ковариации:
![{ displaystyle = operatorname {E} ! { big [} operatorname {cov} (X, Y mid Z) + operatorname {E} [X mid Z] operatorname {E} [Y mid Z] { big]} - operatorname {E} { big [} operatorname {E} [X mid Z] { big]} operatorname {E} { big [} operatorname {E} [ Y mid Z] { big]}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/88000aa872d3c4aec4ed610180f7d8d2a2329308)
Поскольку ожидание суммы - это сумма ожиданий, мы можем перегруппировать условия:
![{ displaystyle = operatorname {E} ! left [ operatorname {cov} (X, Y mid Z)] + operatorname {E} [ operatorname {E} [X mid Z] operatorname {E } [Y mid Z] right] - operatorname {E} [ operatorname {E} [X mid Z]] operatorname {E} [ operatorname {E} [Y mid Z]]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f2e9f41eaf3f2aa8d658e3da9c379d7e6de26d26)
Наконец, мы распознаем последние два члена как ковариацию условных ожиданий E [Икс | Z] и E [Y | Z]:
![{ displaystyle = operatorname {E} { big [} operatorname {cov} (X, Y mid Z) { big]} + operatorname {cov} { big (} operatorname {E} [X mid Z], operatorname {E} [Y mid Z] { big)}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ad3010c7ce77176b93bc8b3cbf13c7c9b789843c)
Смотрите также
Примечания и ссылки
- ^ Мэтью Р. Рудари, О прогнозирующих линейных гауссовских моделях, ProQuest, 2009, стр.121.
- ^ Шелдон М. Росс, Первый курс вероятности, шестое издание, Prentice Hall, 2002, стр. 392.
внешняя ссылка