3.2. Случайные величины (уточняющее продолжение)

3.2.1. Операции над случайными величинами

Случайные величины могут подвергаться различным преобразованиям. Наиболее простые операции: сложение с константами и умножение на константу. Пусть имеется случайная величина \( X \), распределение которой задано таблицей

X x1 xn
p1 pn

Случайная величина ​\( X+a \)​ задается в таком случае следующей таблицей:

X+a x1+a xn+a
p1 pn

Случайная величина ​\( X⋅a \)​ задается такой таблицей:

X⋅a x1a xna
p1 pn

Если случайная величина \( YX\) реализована, например, игральной костью, то прибавление числа 3 к этой случайной величине реализуется переписыванием значений на соответствующих гранях (1 превращается в 4, 2 — в 5 и т.д.). Естественно, что при такой операции вторая строка таблицы распределения остается без изменений. Умножение на три реализуется заменой единицы на тройку, двойки — на шесть и т.д.

Мы можем применять к случайным величинам и более сложные функции, например, функцию ​\( y=x^2 \)​. Действуя аналогично предыдущей операции, возведем в квадрат каждое значение, оставив вторую строку без изменений. Для игральной кости результат будет такой:

X 1 4 9 16 25 36
1/6 1/6 1/6 1/6 1/6 1/6

Однако в некоторых случаях при таком преобразовании может возникнуть трудность. Пусть у нас есть случайная величина \( YX\)

X -1 0 1 2
0.1 0.2 0.3 0.4

Таблица для случайной величины ​\( X^2 \)​ получится такой:

\( X^2 \) 1 0 1 4
0.1 0.2 0.3 0.4

В первой строке есть совпадающие значения. Их следует объединить, сложив соответствующие вероятности:

\( X^2 \) 0 1 4
0.2 0.4 0.4

Таблицу распределения случайной величины ​\( Y=f(X) \)​ для любой функции f можно построить аналогично. В психологических измерениях нередко разумным оказывается преобразование шкал ​\( x’=ln(x) \)​. Ему будет соответствовать логарифмическое преобразование соответствующих случайных величин (например, логарифм количества ошибок в каком-то задании). Естественно, распределение такой случайной величины будет задаваться таблицей:

ln(X) ln(x1) ln(xn)
p1 pn

 

3.2.2. Математическое ожидание и выборочное среднее

Пусть имеется случайная величина X с заданной таблицей распределения

X x1 x2 xn
p1 p2 pn

Согласно определению ее математическое ожидание задается формулой

\[ M_X=x_1 p_1+x_2 p_2+…+x_n p_n\space или \space M_X=\sum_{i=1}^nx_i p_i \].

Предположим, что проведено \( k\) испытаний случайной величины \( X \), при этом ​\( k_1 \)​ раз она приняла значение ​\( x_1 \)​, \( k_2 \) раз — значение \( x_2 \), …, \( k_n \) раз — значение \( x_n\):

\[ k_1+k_2+⋯+k_n=k \].

Найдем среднее арифметическое всех этих \( k \) значений (т.е. выборочное среднее). Имеем

\[ \frac{\overbrace{x_1+\ldots +x_1}^{k_1}+ \overbrace{x_2+\ldots +x_2}^{k_2}+\ldots +\overbrace{x_n+\ldots +x_n}^{k_n}}k= \]

\[ =\frac{x_1k_1+x_2k_2+\ldots+x_nk_n}k=x_1\frac{k_1}k+x_2\frac{k_2}k+ \ldots+x_n\frac{k_n}k \].

Дробь ​\( \frac{k_i}{k} \)​ представляет собой относительную частоту появления в k испытаниях события «случайная величина X приняла значение ​\( x_i \)​» (в k испытаниях событие «​\( X=x_i \)​» произошло  раз). При больших значениях k относительная частота примерно равна вероятности события «​\( X=x_i \)​», т.е. , поэтому

\[ x_1\frac{k_1}k+x_2\frac{k_2}k+\ldots+x_n\frac{k_n}k\approx x_1p_1+\ldots+x_np_n=M_X \].

Таким образом, в серии из большого количества испытаний среднее арифметическое полученных в этой серии значений случайной величины (выборочное среднее) будет приближаться к ее математическому ожиданию по мере того, как частоты значений будут приближаться к соответствующим вероятностям.

Этот факт имеет два важных следствия.

Следствие 3.2.2(1). Математическое ожидание случайной величины, распределение которой нам неизвестно, можно оценить средним арифметическим значений в достаточно большой серии ее последовательных испытаний. Чем длиннее серия, тем точнее эта оценка[1].

Следствие 3.2.2(2). В практически интересных случаях можно оценивать наиболее вероятный результат серии испытаний, исходя из математического ожидания случайной величины.

Пример 3.2.2(3). Предлагается следующая азартная игра: Бросают два игральных кубика. Если полученная сумма больше 10, то игрок выигрывает 10 копеек, в противном случае проигрывает 1 копейку. Имеет ли ему смысл играть в эту игру 12 000 000 партий?

Из 36 возможных исходов выпадения двух различимых кубиков в трех случаях выпадает благоприятствующая игроку сумма. Это значит, что 10 копеек он выигрывает с вероятностью ​\( 3/36=1/12 \)​, а одну копейку проигрывает (скажем так: выигрывает (−1) копейку) с вероятностью ​\( 33/36=11/12 \)​. В таком случае

\[ M_X=10\cdot\frac1{12}+(-1)\cdot\frac{11}{12}=-\frac1{12} \]

Проигрывая в среднем 1/12 копейки за партию, за 12 000 000 партий игрок проиграет около 1 000 000 копеек, или 10 000 рублей.

3.2.3. Дисперсия и среднеквадратическое отклонение

Следующий простейший пример показывает, что случайные величины с равным математическим ожиданием могут существенно различаться по степени близости к нему.

Рассмотрим две случайные величины:

X -1 0 1 и Y -100 0 100
0.25 0.5 0.25 0.25 0.5 0.25

Нетрудно видеть, что ​\( M_X=M_Y=0 \)​. Но если для величины \(X \) отклонение от нуля незначительно, то для величины \( Y \) оно весьма заметно.

Если представить, что значения этих случайных величин — это предполагаемый выигрыш/проигрыш в рублях, то хотя обе игры справедливы (такие игры называются играми с нулевой суммой), игра \( Y \) может быть сочтена более рискованной, чем игра \( X\).

Показателем разброса значений случайной величины служит ее дисперсия.

Определение 3.2.3(1). Если величина \( X \) задана таблицей

X x1 x2 xn
p1 p2 pn

то дисперсия случайной величины \( X \) может быть вычислена по формуле

\[ D_X=(x_1-M_X)^2p_1+(x_2-M_X)^2p_2+\dots+(x_n-M_X)^2p_n \],

или сокращенно

\[ D_X=\sum_{i=1}^n (x_i-M_X)^2p_i \].

Можно рассчитать дисперсии приведенных выше примеров.

\[ D_X=(-1-0)^2\cdot 0.25+(0-0)^2\cdot 0.5+(1-0)^2\cdot 0.25 =0.5, \]

\[ D_Y=(-100-0)^2\cdot 0.25+(0-0)^2\cdot 0.5+(100-0)^2\cdot 0.25 =5000. \]

Значения случайных величин различаются в 100 раз, а их дисперсии — в ​\( 100^2=10000 \)​ раз, что, разумеется, является следствием возведения разностей, характеризующих отклонение от среднего значения, в квадрат.

Разброс случайных величин можно было бы характеризовать и другими показателями, например

\[ |x_1-M_X |p_1+|x_2-M_X |p_2+⋯+|x_n-M_X |p_i \]

но квадратичная мера разброса оказалась исключительно эффективной. Приведенная ниже Теорема 3.2.5(5) — лишь один пример такой эффективности.

Следующий пример показывает, что у случайных величин с одинаковыми значениями также могут быть разные дисперсии, если различаются вероятности одинаковых значений:

X -1 0 1 и Y -1 0 1
0.25 0.5 0.25 0.4 0.2 0.4

Дисперсия первой равна 0.5, как мы уже убедились, дисперсия второй равна 0.8.

Замечание 3.2.3(2). Математическое ожидание может быть любым числом, а дисперсия всегда неотрицательна.

Выше шла речь об операциях над случайными величинами. В случае линейных преобразований случайной величины \( Y\) (т.е. преобразований вида ​\( Y=aX+b \)​, где \( a \) и \( b\) — некоторые числа) математическое ожидание и дисперсию получившейся случайной величины \( Y \) можно вычислить, исходя из этих же числовых характеристик величины \( X\). Именно, справедливы следующие формулы:

\[ M_Y=aM_X+b,D_Y=a^2 M_X \]

Рассмотрим пример: случайная величина \( X\) задана таблицей

X 1 2 3
1/3 1/3 1/3

Она имеет математическое ожидание, равное 2, и дисперсию 2/3. Распределение случайной величины \( 4X+5 \) задается таблицей

4X+5 9 13 17
1/3 1/3 1/3

Легко видеть: ​\( M_Y=13 \)​, т.е. ​\( M_Y=4⋅2+5=4⋅M_X+5 \)​, а ​\( D_Y=4^2/3+0+4^2/3=32/3 \)​, т.е. ​\( D_Y=4^2⋅D_X \)​.

В общем случае утверждение легко доказать. Мы советуем читателю обратить внимание на тот факт, что употребление алгебраических переменных только увеличивает ясность, а вовсе не усложняет понимание. Действительно, числа из примеров могут не вполне отчетливо указывать на то, откуда они ведут свое происхождение. Хотя мы стараемся сделать происхождение чисел прозрачным, это не всегда просто осуществить. В последней строке только что разобранного примера встречаются три выражения «​\( 4^2 \)​». Первые два — это отклонения от математического ожидания двух разных значений случайной величины, третье — квадрат множителя в линейной функции. Понять настоящее значение констант поэтому не так просто. В общем доказательстве эта проблема преодолевается.

Пусть дана случайная величина

X x1 x2 xn
p1 p2 pn

c математическим ожиданием

\[ M_X=x_1 p_1+x_2 p_2+⋯+x_n p_n \]

и дисперсией

\[ D_X=(x_1-M_X )^2 p_1+(x_2-M_X )^2 p_2+⋯+(x_n-M_X )^2 p_n \].

Случайная величина ​\( Y=aX+b \)​ задается таблицей

\( Y=aX+b \) \( ax_1+b \) \( ax_2+b \) \( ax_n+b \)
p1 p2 pn

Ее математическое ожидание

\[ M_Y=(ax_1+b)p_1+(ax_2+b)p_2+⋯+(ax_n+b)p_n \].

Продолжаем, раскрывая скобки, а затем группируя слагаемые:

\[ M_Y=ax_1 p_1+bp_1+ax_2 p_2+bp_2+⋯+ax_n p_n+bp_n= \]

\[ =ax_1 p_1+ax_2 p_2+⋯+ax_n p_n+bp_1+bp_2+⋯+bp_n= \]

\[ =a(x_1 p_1+x_2 p_2+⋯+x_n p_n)+b(p_1+p_2+⋯+p_n) \]

В последней строке в первой скобке стоит математическое ожидание ​\( M_X \)​, а во второй скобке сумма всех вероятностей ​\( p_i \)​, равная единице. Таким образом, последняя строка равна тому самому выражению ​\( aM_X+b \)​, которое мы доказывали. Первая часть завершена.

Далее, рассчитываем дисперсию случайной величины ​\( Y=aX+b \)​, подставляя вместо ​\( M_Y \)​ равное ему ​\( aM_X+b \)​:

\[ D_Y=(ax_1+b-aM_X-b)^2 p_1+(ax_2+b-aM_X-b)^2 p_2+⋯+(ax_n+b-aM_X-b)^2 p_n \].

В скобках сокращаются b и −b, а константу a можно вынести за скобки:

\[ D_Y=(ax_1+b-aM_X-b)^2 p_1+(ax_2+b-aM_X-b)^2 p_2+⋯+(ax_n+b-aM_X-b)^2 p_n=\]

\[ [a(x_1-M_X)]^2 p_1+[a(x_2-M_X)]^2 p_2+⋯+[a(x_n-M_X)]^2 p_n \].

Последняя строка преобразуется далее:

\[ D_Y=[a(x_1-M_X)]^2 p_1+[a(x_2-M_X)]^2 p_2+⋯+[a(x_n-M_X)]^2 p_n= \]

\[ =a^2 (x_1-M_X )^2 p_1+a^2 (x_2-M_X )^2 p_2+⋯+a^2 (x_n-M_X )^2 p_n= \]

\[ =a^2 [(x_1-M_X )^2 p_1+(x_2-M_X )^2 p_2+⋯+(x_n-M_X )^2 p_n]=a^2 D_X \]

Обе формулы доказаны.

Напомним, что выборочная дисперсия сходится при увеличении объема выборки к теоретической дисперсии. Стандартное отклонение s сходится при этом к величине ​\( \sqrt{D} \)​, которая получила специальное наименование среднеквадратическое отклонение и обозначается греческой буквой σ.

3.2.4. Стандартизация случайной величины

Определение 3.2.4(1). Случайная величина, у которой математическое ожидание равно 0, а дисперсия равна 1, называется стандартной или стандартизованной случайной величиной.

Пусть имеется случайная величина X с математическим ожиданием m и среднеквадратическим отклонением σ. Нетрудно показать, что случайная величина

\[ Y=\frac{X-m}{σ} \]

является стандартной случайной величиной. Действительно, вышеприведенную формулу можно переписать в виде

\[ Y=\frac{1}{σ} X-\frac{m}{σ} \]

Теперь, вспомнив, что ​\( M_{aX+b}=aM_X+b \)​ и ​\( D_{aX+b}=a^2 D_X \)​ и заменяя a на ​\( \frac{1}{\sigma} \)​, а b на \( \frac{m}{\sigma} \), получаем

\( M_Y=\frac{1}{σ} m-\frac{m}{σ}=0 \) ​и, поскольку ​\( D_X=σ^2,D_Y=\frac{σ^2}{σ^2} =1. \)

Это именно то, что мы хотели доказать.

Замечание 3.2.4(2). Если случайная величина моделирует какие-то процессы реального мира, то ее значения имеют размерность. Например, эти значения могут измеряться в метрах, килограммах и т.п. При этом математическое ожидание случайной величины имеет ту же размерность, что и сама случайная величина, а размерность дисперсии равна квадрату размерности случайной величины. Например, если случайная величина измеряется в рублях, то ее дисперсия — в рублях в квадрате.

Однако среднеквадратическое отклонение σ имеет ту же размерность, что и случайная величина. Более того, в некоторых случаях саму σ имеет смысл выбрать в качестве более удобной единицы измерения, отражающей вероятностные свойства исходной шкалы. Именно это и делается посредством стандартизации ​\( x’=(x-m)/σ \)​ (заметим, что такое преобразование допустимо для интервальных шкал — см. параграф 1.1). После этой операции точка m (математическое ожидание) получает значение 0 а точка, которая лежала на расстоянии σ справа от математического ожидания, получает значение 1.

3.2.5. Сумма случайных величин

Точно так же, как операции над числами делают из системы пересчета весьма продуктивную систему расчетов, так и операции над случайными величинами превращают их в продуктивную систему описаний и предсказаний случайных событий. Сумма случайных величин — узловое понятие в этой системе.

Если проводятся испытания двух случайных величин, ​\( X_1 \)​ и ​\( X_2 \)​, то можно определить их сумму, просто складывая результаты испытаний. Например, бросая две игральные кости, мы можем суммировать выпавшие результаты. Другой пример: при подсчете тестовых баллов мы собираемся суммировать результаты по отдельным вопросам.

Если в результате испытания величина \( X \) принимает значение \( x \), а величина ​\( Y \)​ — значение \( y \), то случайная величина \( X+Y \) принимает значение ​\( x + y \)​ .

В некоторых случаях нам надо будет складывать случайные величины, не являющиеся независимыми, но пока мы займемся только сложением независимых случайных величин. Независимость случайных величин определяется через независимость событий. Как и в случае независимости событий, яснее всего ситуация для физически независимых случайных величин: например, при подбрасывании двух монет количество гербов при бросании первой и второй монеты — независимые случайные величины. В этом будет уверен каждый, кто считает, что выпадение герба на первой монете и выпадение герба на второй монете — независимые события.

Определение 3.2.5(1). Суммой случайных величин \( X+Y \) называется случайная величина, результат испытания которой получается проведением испытаний случайных величин-слагаемых \( X \) и \( Y \) и суммированием полученных результатов.

Сначала рассмотрим пример.

Пример 3.2.5(2). Пусть случайные величины \( X\) и \( Y \) задаются таблицами распределения следующего вида:

X -1 0 1 и Y -1 1
0.2 0.5 0.3 0.4 0.6

Пусть также у нас есть основания считать, что случайные величины физически не зависят одна от другой. Так как \( X\) принимает три различных значения, а \( Y \) — два, то для суммы получаем шесть возможностей. Выпишем их и вычислим попутно вероятности, используя независимость событий «случайная величина \( X \) принимает i-е значение» и «случайная величина \( Y \) принимает j-е значение» и перемножая соответствующие вероятности, как мы это уже делали для независимых событий (подпараграф 2.2.3):

\( p (X=-1) p (Y=-1)=0.2⋅0.4=0.08,\spaceпри\spaceэтом \space X+Y=-2; \)

\( p (X=-1) p (Y=1)=0.2⋅0.6=0.12, \spaceпри\spaceэтом \space X+Y=0; \)

\( p (X=0) p (Y=-1)=0.5⋅0.4=0.2,\spaceпри\spaceэтом \space X+Y=-1; \)

\( p (X=0) p (Y=1)=0.5⋅0.6=0.3,\spaceпри\spaceэтом \space X+Y=1; \)

\( p (X=1) p (Y=-1)=0.3⋅0.4=0.12,\spaceпри\spaceэтом \space X+Y=0; \)

\( p (X=1) p (Y=1)=0.3⋅0.6=0.18,\spaceпри\spaceэтом \space X+Y=2. \)

Таким образом, для величины ​\( X+Y \)​ получаем следующую таблицу распределения:

X+Y -2 -1 0 1 2
0.08 0.2 0.25 0.3 0.18

Легко проверить, что математическое ожидание суммы \( X+Y \) равно сумме математических ожиданий \( X \) и \( Y \):

\[ M_{(X+Y)}=M_X+M_Y \]

Этот факт нетрудно доказать и в общем случае. Мы проведем доказательство для независимых случайных величин, каждая из которых принимает по два значения. Разобравшийся в нем читатель легко докажет теорему для произвольных наборов значений (отличие только в размере таблиц и употребляемых в таких случаях многоточиях вместо произвольного числа слагаемых).

Теорема 3.2.5(3). Математическое ожидание суммы независимых случайных величин равно сумме математических ожиданий слагаемых:

Пусть случайные величины X и Y задаются таблицами распределения следующего вида:

X x1 x2 и Y y1 y2
p1 p2   q1 q2

Их математические ожидания равны соответственно ​\( x_1 p_1+x_2 p_2 \)​ и ​\( y_1 q_1+y_2 q_2 \)​.

Распределение их суммы задается следующей таблицей:

\( X+Y \) \( x_1+y_1 \) \( x_1+y_2 \) \( x_2+y_1 \) \( x_2+y_2 \)
\( p_1q_1 \) \( p_1q_2 \) \( p_2q_1 \) \( p_2q_2 \)

Математическое ожидание X+Y вычислим, расположив четверку слагаемых в виде таблицы

\[ M_{X+Y}= \begin{array}{c c c} (x_1+y_1)p_1q_1&+&(x_1+y_2)p_1q_2\\ + & & + \\ (x_2+y_1)p_2q_1&+&(x_2+y_2)p_2q_2\\ \end{array} \]

Раскрыв скобки, получим восемь слагаемых:

\[ \begin{array}{c c c c c c c c} x_1p_1q_1&+&y_1p_1q_1&+&x_1p_1q_2&+&y_2p_1q_2\\ & & &+& & & \\ x_2p_2q_1&+&y_1p_2q_1&+&x_2p_2q_2&+&y_2p_2q_2\\ \end{array} \]

Поменяем теперь местами второй и третий столбцы:

\[ \begin{array}{c c c c c c c c c c c} x_1p_1q_1&+&x_1p_1q_2& & & &y_1p_1q_1& &y_2p_1q_2\\ &+& & &+& & + &+& + \\ x_2p_2q_1&+&x_2p_2q_2& & & &y_1p_2q_1& &y_2p_2q_2\\ \end{array} \]

 

В новой таблице плюсы показывают порядок суммирования: в первой четверке мы сначала сложим элементы строк, а во второй четверке — сначала сложим элементы столбцов. Это позволит нам далее вынести за скобки нужные множители. Проводим группировку с помощью квадратных скобок и выносим за эти скобки множители:

\[ [x_1p_1q_1+x_1p_1q_2]\,+\,[x_2p_2q_1+x_2p_2q_2]\,+\, [y_1p_1q_1+y_1p_2q_1]\,+\, [y_2p_1q_2+ y_2p_2q_2]= \]

\[ =x_1p_1[q_1+q_2]\,+\,x_2p_2[q_1+q_2]\,+\, y_1q_1[p_1+p_2]\,+\,y_2q_2[p_1+p_2] \].

Но ​\( p1+p2=1 \)​ и ​\( q1+q2=1 \)​, поэтому квадратные скобки вместе с их содержимым можно опустить. В результате получаем выражение ​\( M_{X+Y}=x_1p_1+x_2p_2\,+\, y_1q_1+y_2q_2 \),​ где первые два слагаемые это​\( M_X \)​ , а вторые два — \( M_Y \).

Теорема доказана.

Замечание 3.2.5(4). Сумму случайных величин можно определить и для случайных величин, которые не являются независимыми. В этом случае нельзя будет вычислять вероятность совместного наступления событий как произведение вероятностей этих событий. Однако теорема о сложении математических ожиданий верна и в этом случае, хотя доказательство и оказывается чуть сложнее.

В случае суммирования n дискретных случайных величин, где ​\( n>2 \)​, таблицу распределения можно строить последовательным суммированием. Как и в привычной арифметике, результат не будет зависеть от порядка слагаемых. И в этом случае математические ожидания слагаемых в сумме дают математическое ожидание суммарной случайной величины:

\[ M(X_1+⋯+X_n )=MX_1+⋯+MX_n \]

Следующая теорема служит весомым аргументом в пользу употребления дисперсии в качестве меры разброса случайной величины.

Теорема 3.2.5(5). Если X и Y — независимые случайные величины, то

\[ D_{X+Y}=D_X+D_Y \]

Никакие другие меры разброса случайной величины не дают такую простую формулу сложения. Доказательство теоремы мы даем в приложении 2. В следующих главах будут рассматриваться чрезвычайно важные следствия из этой теоремы, а сейчас разберем один пример сложения дисперсий.

Рассмотрим две одинаково распределенные случайные величины.

X -1 1 и Y -1 1
0.5 0.5 0.5 0.5

Эти распределения можно назвать симметричными, поэтому нет ничего удивительного в том, что их математические ожидания равны нулю. Поскольку отклонения от математического ожидания каждого из двух значений случайной величины X равны единице, то и дисперсия X равна единице: ​\( D_X=1^2⋅0.5+1^2⋅0.5=1 \).​ Также единице равна дисперсия Y.

Сумма X+Y будет иметь следующее распределение:

X+Y -2 0 2
0.25 0.5 0.25

Ее математическое ожидание также равно нулю, а дисперсия ​\( D_{X+Y}=2^2⋅0.25+0+2^2⋅0.25=2 \)​ т.е., естественно, равна сумме дисперсий слагаемых.

Рассмотрим теперь среднее арифметическое этих двух случайных величин

\[ \frac{X+Y}{2} \]

Таблица его распределения такова:

(X+Y)/2 -1 0 1
0.25 0.5 0.25

а дисперсия ​\( D_{\frac{X+Y}{2}}=1^2⋅0.25+0+1^2⋅0.25=0.5. \)​ т.е. вдвое меньше дисперсии каждого из слагаемых. Это пример того, что разброс среднего арифметического существенно понижается по сравнению с разбросом слагаемых.

Упражнение 3.2.5(6). Равны ли дисперсии случайных величин ​\( 2X \)​ и ​\( X+X \)​?

Ответ. Запись ​\( X+X \)​ не вполне корректна, обычно мы пишем ​\( X_1+X_2 \)​ с оговоркой, что эти случайные величины распределены так же, как X. После этого ясно, что дисперсия \( X_1+X_2 \) равна ​\( 2D_X \)​​​, а дисперсия \( 2X \) равна \( 2D_X \). Случайную величину \( 2X \) можно интерпретировать как умноженную на константу 2 величину X, но и как сумму максимально сильно связанных случайных величин: если первая из них принимает значение a, то и вторая должна принять это же значение (например, так или почти так связаны роста однояйцевых близнецов). При более слабой связи дисперсия суммы будет принимать промежуточные значения — в данном случае между \( 2X \) и \( 4X \).

Замечание 3.2.5(7). Отметим важный случай, когда величины ​\( X_1,X_2,…,X_n \)​ имеют один и тот же закон распределения. Иногда вместо термина «независимые одинаково распределенные случайные величины» употребляют термин «независимые наблюдения (испытания) данной случайной величины».

Замечание 3.2.5(8). Для случайной величины \( X \), принимающей значения 0 и 1 с вероятностями соответственно q и p, математическое ожидание равно ​\( 0⋅q+1⋅p=p \)​. Имея в виду, что ​\( q=1−p \)​ и, подставив в формулу дисперсии возможные значения случайной величины с соответствующими вероятностями q и p в качестве математического ожидания, получаем

\[ (0-p)^2⋅q+(1-p)^2⋅p=p^2 q+q^2 p=pq(p+q)=pq \].

Сумма двух экземпляров такой случайной величины X есть биномиальная величина с двумя испытаниями и вероятностью p исхода, число выпадений которого мы суммируем. Аналогично, биномиальная величина с n испытаниями есть сумма n экземпляров X. Эта величина обозначается обычно ​\( B(n,p) \)​.

По теореме о сложении математических ожиданий, математическое ожидание числа выпавших единиц в n-кратном испытании данной случайной величины, т.е. математическое ожидание биномиальной случайной величины ​\( B(n,p) \)​ равно np (что совершенно не удивительно: при 100-кратном подбрасывании монеты, выпадающей гербом с вероятностью 0.6, среднее количество выпавших гербов равно ​\( 100*0.6=60 \)​). По теореме о сложении дисперсий дисперсия биномиальной случайной величины ​\( B(n,p) \)​ равна npq. Для случая равных вероятностей ​\( B(n,1/2) \)​ математическое ожидание и дисперсия равны соответственно ​\( n/2 \)​ и ​\( n/4 \)​.

>> следующий параграф>>


[1] Строго говоря, это верно не для всякой случайной величин. Например, случайная величина может иметь распределение, но не иметь математического ожидания. Здесь мы не будем обсуждать эти вопросы.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.