期待値の性質(証明付き)

期待値の性質 数学

何か間違いなどありましたら、コメントで教えてください。

期待値の演算Eについての重要な性質

XとYを確率変数、cを単なる定数とする。

$$
E(c) = c \tag{a}
$$

$$
E(X + c) = E(X) + c \tag{b}
$$

$$
E(cX) = cE(X) \tag{c}
$$

$$
E(X + Y) = E(X) + E(Y) \tag{d}
$$

順番に解説する。
まず(a)は定数の期待値は、その定数自身ということだ。
定数は確率変数ではないので、期待値はその定数自身ということだ。

(※ここでは簡単に性質を説明するが、後で定義式を用いて証明する)

(b)、(c)は期待値の演算について、定数は簡単に外に出せるということを表している。
定数について、素直な式変形が可能だと理解してほしい。
これについても証明は後述する。

(d)は2つの確率変数が関わる少し特殊なものだ。
この性質は「期待値の加法性」と呼ばれている。
これについて少し注意して欲しいのは、確率変数Xと確率変数Yが独立でも独立でなくとも、この性質は成立するということだ。

今後、複数の確率変数が関わる性質を表す公式が出てきた時、それらの確率変数が独立の場合と、独立でない場合で直感的な式変形ができなくなる場合があるので、少し気に留めておいてほしい。

証明のために必要な定義 1

確率変数Xの関数\( \phi (X) \)についての期待値の定義は、

離散型確率変数Xの場合

$$
E(\phi (X)) = \displaystyle \sum_x \phi (x) f(x)
$$

連続型確率変数Xの場合

$$
E(\phi (X)) = \displaystyle \int_{-\infty}^{\infty} \phi (x) f(x) dx
$$

証明のために必要な定義 2

確率変数XとYについての期待値の定義は、

XとYが離散型確率変数の場合

$$
E(\phi (X, Y)) = \displaystyle \sum_x \sum_y \phi (x, y) f(x, y)
$$

XとYが連続型確率変数の場合

$$
E(\phi (X, Y)) = \displaystyle \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} \phi (x, y) f(x, y) dx dy
$$

証明

以降、手書きになるが、証明を載せておく。

(字が汚くてすみません・・・。次からはなるべく丁寧に書きます。)

(a)の証明

証明a

(b)の証明

証明b

(c)の証明

証明c

(d)の証明

証明d1
証明d2

参考にした本

通称「赤本」と呼ばれている有名な良書。

コメント

タイトルとURLをコピーしました