Από τη Βικιπαίδεια, την ελεύθερη εγκυκλοπαίδεια
Στην θεωρία πιθανοτήτων η ταυτότητα Bienaymé αναφέρεται στην μαθηματική ταυτότητα για τη διακύμανση του αθροίσματος
n
{\displaystyle n}
τυχαίων μεταβλητών [1] :230 [2] :12
Var
(
∑
i
=
1
n
X
i
)
=
∑
i
=
1
n
Var
(
X
i
)
+
∑
i
≠
j
Cov
(
X
i
,
X
j
)
,
{\displaystyle \operatorname {Var} \left(\sum _{i=1}^{n}X_{i}\right)=\sum _{i=1}^{n}\operatorname {Var} (X_{i})+\sum _{i\neq j}\operatorname {Cov} (X_{i},X_{j}),}
όπου
Cov
(
X
,
Y
)
{\displaystyle \operatorname {Cov} (X,Y)}
είναι η συνδιακύμανση των
X
{\displaystyle X}
και
Y
{\displaystyle Y}
.
Όταν οι τυχαίες μεταβλητές είναι ανεξάρτητες , τότε η ταυτότητα απλοποιείται ως εξής
Var
(
∑
i
=
1
n
X
i
)
=
∑
i
=
1
n
Var
(
X
i
)
.
{\displaystyle \operatorname {Var} \left(\sum _{i=1}^{n}X_{i}\right)=\sum _{i=1}^{n}\operatorname {Var} (X_{i}).}
Για
n
=
2
{\displaystyle n=2}
, η ταυτότητα έχει τη μορφή
Var
(
X
1
+
X
2
)
=
Var
(
X
1
)
+
Var
(
X
2
)
+
2
Cov
(
X
1
,
X
2
)
.
{\displaystyle \operatorname {Var} (X_{1}+X_{2})=\operatorname {Var} (X_{1})+\operatorname {Var} (X_{2})+2\operatorname {Cov} (X_{1},X_{2}).}
Για
n
=
3
{\displaystyle n=3}
, η ταυτότητα έχει τη μορφή
Var
(
X
1
+
X
2
+
X
3
)
=
Var
(
X
1
)
+
Var
(
X
2
)
+
Var
(
X
3
)
+
2
Cov
(
X
1
,
X
2
)
+
2
Cov
(
X
1
,
X
3
)
+
2
Cov
(
X
2
,
X
3
)
.
{\displaystyle \operatorname {Var} (X_{1}+X_{2}+X_{3})=\operatorname {Var} (X_{1})+\operatorname {Var} (X_{2})+\operatorname {Var} (X_{3})+2\operatorname {Cov} (X_{1},X_{2})+2\operatorname {Cov} (X_{1},X_{3})+2\operatorname {Cov} (X_{2},X_{3}).}
Από τον ορισμό της διακύμανσης
Var
(
X
)
=
E
(
X
2
)
−
(
E
(
X
)
)
2
{\displaystyle \operatorname {Var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}}
προκύπτει ότι
Var
(
∑
i
=
1
n
X
i
)
=
E
(
(
∑
i
=
1
n
X
i
)
2
)
−
(
E
(
∑
i
=
1
n
X
i
)
)
2
.
{\displaystyle \operatorname {Var} \left(\sum _{i=1}^{n}X_{i}\right)=\operatorname {E} \left(\left(\sum _{i=1}^{n}X_{i}\right)^{2}\right)-\left(\operatorname {E} \left(\sum _{i=1}^{n}X_{i}\right)\right)^{2}.}
Αναπτύσσοντας τα τετράγωνα χρησιμοποιώντας τον τύπο
(
z
1
+
…
+
z
n
)
2
=
(
z
1
2
+
…
+
z
n
2
)
+
(
z
1
z
2
+
z
1
z
3
+
…
+
z
n
−
1
z
n
)
{\displaystyle (z_{1}+\ldots +z_{n})^{2}=(z_{1}^{2}+\ldots +z_{n}^{2})+(z_{1}z_{2}+z_{1}z_{3}+\ldots +z_{n-1}z_{n})}
, έχουμε ότι
Var
(
∑
i
=
1
n
X
i
)
=
∑
i
=
1
n
E
(
X
i
2
)
+
∑
i
≠
j
E
(
X
i
X
j
)
−
∑
i
=
1
n
(
E
(
X
i
)
)
2
−
∑
i
≠
j
E
(
X
i
)
E
(
X
j
)
=
∑
i
=
1
n
(
E
(
X
i
2
)
−
(
E
(
X
i
)
)
2
)
+
∑
i
≠
j
(
E
(
X
i
X
j
)
−
∑
i
≠
j
E
(
X
i
)
E
(
X
j
)
)
=
∑
i
=
1
n
Var
(
X
i
)
+
∑
i
≠
j
Cov
(
X
i
,
X
j
)
.
{\displaystyle {\begin{aligned}\operatorname {Var} \left(\sum _{i=1}^{n}X_{i}\right)&=\sum _{i=1}^{n}\operatorname {E} (X_{i}^{2})+\sum _{i\neq j}\operatorname {E} (X_{i}X_{j})-\sum _{i=1}^{n}(\operatorname {E} (X_{i}))^{2}-\sum _{i\neq j}\operatorname {E} (X_{i})\operatorname {E} (X_{j})\\&=\sum _{i=1}^{n}\left(\operatorname {E} (X_{i}^{2})-(\operatorname {E} (X_{i}))^{2}\right)+\sum _{i\neq j}\left(\operatorname {E} (X_{i}X_{j})-\sum _{i\neq j}\operatorname {E} (X_{i})\operatorname {E} (X_{j})\right)\\&=\sum _{i=1}^{n}\operatorname {Var} (X_{i})+\sum _{i\neq j}\operatorname {Cov} (X_{i},X_{j}).\end{aligned}}}
Όταν οι τυχαίες μεταβλητές είναι ανεξάρτητες τότε
Cov
(
X
i
,
X
j
)
=
0
{\displaystyle \operatorname {Cov} (X_{i},X_{j})=0}
για
i
≠
j
{\displaystyle i\neq j}
και επομένως ο τύπος απλοποιείται ως εξής:
Var
(
∑
i
=
1
n
X
i
)
=
∑
i
=
1
n
Var
(
X
i
)
.
{\displaystyle \operatorname {Var} \left(\sum _{i=1}^{n}X_{i}\right)=\sum _{i=1}^{n}\operatorname {Var} (X_{i}).}
↑ Feller, Vilim (1968). An introduction to probability theory and its applications. Volume I (3rd, revised printing έκδοση). New York [etc.] ISBN 0-471-25711-7 .
↑ Loève, M. (1977). Probability theory (4th έκδοση). New York. ISBN 978-0-387-90210-4 .