Содержит дисперсии. Вычисление дисперсии выборки

Основными обобщающими показателями вариации в статистике являются дисперсии и среднее квадратическое отклонение.

Дисперсия  это средняя арифметическая квадратов отклонений каждого значения признака от общей средней. Дисперсия обычно называется средним квадратом отклонений и обозначается  2 . В зависимости от исходных данных дисперсия может вычисляться по средней арифметической простой или взвешенной:

 дисперсия невзвешенная (простая);

 дисперсия взвешенная.

Среднее квадратическое отклонение  это обобщающая характеристика абсолютных размеров вариации признака в совокупности. Выражается оно в тех же единицах измерения, что и признак (в метрах, тоннах, процентах, гектарах и т. д.).

Среднее квадратическое отклонение представляет собой корень квадратный из дисперсии и обозначается :

 среднее квадратическое отклонение невзвешенное;

 среднее квадратическое отклонение взвешенное.

Среднее квадратическое отклонение является мерилом надежности средней. Чем меньше среднее квадратическое отклонение, тем лучше средняя арифметическая отражает всю представляемую совокупность.

Вычислению среднего квадратического отклонения предшествует расчет дисперсии.

Порядок расчета дисперсии взвешенной следующий:

1) определяют среднюю арифметическую взвешенную:

2) рассчитывают отклонения вариантов от средней:

3) возводят в квадрат отклонение каждого варианта от средней:

4) умножают квадраты отклонений на веса (частоты):

5) суммируют полученные произведения:

6) полученную сумму делят на сумму весов:

Пример 2.1

Исчислим среднюю арифметическую взвешенную:

Значения отклонений от средней и их квадратов представлены в таблице. Определим дисперсию:

Среднее квадратическое отклонение будет равно:

Если исходные данные представлены в виде интервального ряда распределения , то сначала нужно определить дискретное значение признака, а затем применить изложенный метод.

Пример 2.2

Покажем расчет дисперсии для интервального ряда на данных о распределении посевной площади колхоза по урожайности пшеницы.

Средняя арифметическая равна:

Исчислим дисперсию:

6.3. Расчет дисперсии по формуле по индивидуальным данным

Техника вычисления дисперсии сложна, а при больших значениях вариантов и частот может быть громоздкой. Расчеты можно упростить, используя свойства дисперсии.

Дисперсия имеет следующие свойства.

1. Уменьшение или увеличение весов (частот) варьирующего признака в определенное число раз дисперсию не изменяет.

2. Уменьшение или увеличение каждого значения признака на одну и ту же постоянную величину А дисперсию не изменяет.

3. Уменьшение или увеличение каждого значения признака в какое-то число раз k соответственно уменьшает или увеличивает дисперсию в k 2 раз, а среднее квадратическое отклонение  в k раз.

4. Дисперсия признака относительно произвольной величины всегда больше дисперсии относительно средней арифметической на квадрат разности между средней и произвольной величинами:

Если А  0, то приходим к следующему равенству:

т. е. дисперсия признака равна разности между средним квадратом значений признака и квадратом средней.

Каждое свойство при расчете дисперсии может быть применено самостоятельно или в сочетании с другими.

Порядок расчета дисперсии простой:

1) определяют среднюю арифметическую :

2) возводят в квадрат среднюю арифметическую:

3) возводят в квадрат отклонение каждого варианта ряда:

х i 2 .

4) находят сумму квадратов вариантов:

5) делят сумму квадратов вариантов на их число, т. е. определяют средний квадрат:

6) определяют разность между средним квадратом признака и квадратом средней:

Пример 3.1 Имеются следующие данные о производительности труда рабочих:

Произведем следующие расчеты:

Наряду с изучением вариации признака по всей по всей совокупности в целом часто бывает необходимо проследить количественные изменения признака по группам, на которые разделяется совокупность, а также и между группами. Такое изучение вариации достигается посредством вычисления и анализа различных видов дисперсии.
Выделяют дисперсию общую, межгрупповую и внутригрупповую .
Общая дисперсия σ 2 измеряет вариацию признака по всей совокупности под влиянием всех факторов, обусловивших эту вариацию, .

Межгрупповая дисперсия (δ) характеризует систематическую вариацию, т.е. различия в величине изучаемого признака, возникающие под влиянием признака-фактора, положенного в основание группировки. Она рассчитывается по формуле:
.

Внутригрупповая дисперсия (σ) отражает случайную вариацию, т.е. часть вариации, происходящую под влиянием неучтенных факторов и не зависящую от признака-фактора, положенного в основание группировки. Она вычисляется по формуле:
.

Средняя из внутригрупповых дисперсий : .

Существует закон, связывающий 3 вида дисперсии. Общая дисперсия равна сумме средней из внутригрупповых и межгрупповой дисперсии: .
Данное соотношение называют правилом сложения дисперсий .

В анализе широко используется показатель, представляющий собой долю межгрупповой дисперсии в общей дисперсии. Он носит название эмпирического коэффициента детерминации (η 2): .
Корень квадратный из эмпирического коэффициента детерминации носит название эмпирического корреляционного отношения (η) :
.
Оно характеризует влияние признака, положенного в основание группировки, на вариацию результативного признака. Эмпирическое корреляционное отношение изменяется в пределах от 0 до 1.
Покажем его практическое использование на следующем примере (табл. 1).

Пример №1 . Таблица 1 - Производительность труда двух групп рабочих одного из цехов НПО «Циклон»

Рассчитаем общую и групповые средние и дисперсии:




Исходные данные для вычисления средней из внутригрупповых и межгрупповой дисперсии представлены в табл. 2.
Таблица 2
Расчет и δ 2 по двум группам рабочих.


Группы рабочих
Численность рабочих, чел. Средняя, дет./смен. Дисперсия

Прошедшие техническое обучение

5 95 42,0

Не прошедшие техническое обучение

5 81 231,2

Все рабочие

10 88 185,6
Рассчитаем показатели. Средняя из внутригрупповых дисперсий:
.
Межгрупповая дисперсия

Общая дисперсия:
Таким образом, эмпирическое корреляционное соотношение: .

Наряду с вариацией количественных признаков может наблюдаться и вариация качественных признаков. Такое изучение вариации достигается посредством вычисления следующих видов дисперсий:

Внутригрупповая дисперсия доли определяется по формуле

где n i – численность единиц в отдельных группах.
Доля изучаемого признака во всей совокупности, которая определяется по формуле:
Три вида дисперсии связаны между собой следующим образом:
.

Это соотношение дисперсий называется теоремой сложения дисперсий доли признака.

На данной странице описан стандартный пример нахождения дисперсии, также Вы можете посмотреть другие задачи на её нахождение

Пример 1. Определение групповой, средней из групповой, межгрупповой и общей дисперсии

Пример 2. Нахождение дисперсии и коэффициента вариации в группировочной таблице

Пример 3. Нахождение дисперсии в дискретном ряду

Пример 4. Имеются следующие данные по группе из 20 студентов заочного отделения. Нужно построить интервальный ряд распределения признака, рассчитать среднее значение признака и изучить его дисперсию

Построим интервальную группировку. Определим размах интервала по формуле:

где X max– максимальное значение группировочного признака;
X min–минимальное значение группировочного признака;
n – количество интервалов:

Принимаем n=5. Шаг равен: h = (192 - 159)/ 5 = 6,6

Составим интервальную группировку

Для дальнейших расчетов построим вспомогательную таблицу:

X"i– середина интервала. (например середина интервала 159 – 165,6 = 162,3)

Среднюю величину роста студентов определим по формуле средней арифметической взвешенной:

Определим дисперсию по формуле:

Формулу можно преобразовать так:

Из этой формулы следует, что дисперсия равна разности средней из квадратов вариантов и квадрата и средней.

Дисперсия в вариационных рядах с равными интервалами по способу моментов может быть рассчитана следующим способом при использовании второго свойства дисперсии (разделив все варианты на величину интервала). Определении дисперсии , вычисленной по способу моментов, по следующей формуле менее трудоемок:

где i - величина интервала;
А - условный ноль, в качестве которого удобно использовать середину интервала, обладающего наибольшей частотой;
m1 - квадрат момента первого порядка;
m2 - момент второго порядка

Дисперсия альтернативного признака (если в статистической совокупности признак изменяется так, что имеются только два взаимно исключающих друг друга варианта, то такая изменчивость называется альтернативной) может быть вычислена по формуле:

Подставляя в данную формулу дисперсии q =1- р, получаем:

Виды дисперсии

Общая дисперсия измеряет вариацию признака по всей совокупности в целом под влиянием всех факторов, обуславливающих эту вариацию. Она равняется среднему квадрату отклонений отдельных значений признака х от общего среднего значения х и может быть определена как простая дисперсия или взвешенная дисперсия.

Внутригрупповая дисперсия характеризует случайную вариацию, т.е. часть вариации, которая обусловлена влиянием неучтенных факторов и не зависящую от признака-фактора, положенного в основание группировки. Такая дисперсия равна среднему квадрату отклонений отдельных значений признака внутри группы X от средней арифметической группы и может быть вычислена как простая дисперсия или как взвешенная дисперсия.



Таким образом, внутригрупповая дисперсия измеряет вариацию признака внутри группы и определяется по формуле:

где хi - групповая средняя;
ni - число единиц в группе.

Например, внутригрупповые дисперсии, которые надо определить в задаче изучения влияния квалификации рабочих на уровень производительности труда в цехе показывают вариации выработки в каждой группе, вызванные всеми возможными факторами (техническое состояние оборудования, обеспеченность инструментами и материалами, возраст рабочих, интенсивность труда и т.д.), кроме отличий в квалификационном разряде (внутри группы все рабочие имеют одну и ту же квалификацию).

Решение.

В качестве меры рассеивания значений случайной величины используется дисперсия

Дисперсия (слово дисперсия означает "рассеяние") есть мера рассеивания значений случайной величины относительно ее математического ожидания. Дисперсией называется математическое ожидание квадрата отклонения случайной величины от ее математического ожидания

Если случайная величина - дискретная с бесконечным, но счетным множеством значений, то

если ряд в правой части равенства сходится.

Свойства дисперсии.

  • 1. Дисперсия постоянной величины равна нулю
  • 2. Дисперсия суммы случайных величин равна сумме дисперсий
  • 3. Постоянный множитель можно выносить за знак дисперсии в квадрате

Дисперсия разности случайных величин равна сумме дисперсий

Это свойство является следствием второго и третьего свойств. Дисперсии могут только складываться.

Дисперсию удобно вычислять по формуле, которую легко получить, используя свойства дисперсии

Дисперсия всегда величина положительная .

Дисперсия имеет размерность квадрата размерности самой случайной величины, что не всегда удобно. Поэтому в качестве показателя рассеяния используют также величину

Средним квадратическим отклонением (стандартным отклонением или стандартом) случайной величиныназывается арифметическое значение корня квадратного из её дисперсии

Бросают две монеты достоинством 2 и 5 рублей. Если монета выпадает гербом, то начисляют ноль очков, а если цифрой, то число очков, равное достоинству монеты. Найти математическое ожидание и дисперсию числа очков.

Решение. Найдем вначале распределение случайной величины Х - числа очков. Все комбинации - (2;5),(2;0),(0;5),(0;0) - равновероятны и закон распределения:

Математическое ожидание:

Дисперсию найдем по формуле

для чего вычислим

Пример 2.

Найти неизвестную вероятность р , математическое ожидание и дисперсию дискретной случайной величины, заданной таблицей распределения вероятностей

Находим математическое ожидание и дисперсию:

M (X ) = 00,0081 + 10,0756 + 20,2646 + 3 0,4116 + +40,2401=2,8

Для вычисления дисперсии воспользуемся формулой (19.4)

D (X ) = 020 ,0081 + 120,0756 + 220,2646 + 320,4116 + 420,2401 - 2,82 = 8,68 -

Пример 3. Два равносильных спортсмена проводят турнир, который длится или до первой победы одного из них, или до тех пор, пока не будет сыграно пять партий. Вероятность победы в одной партии для каждого из спортсменов равна 0,3, а вероятность ничейного исхода партии 0,4. Найти закон распределения, математическое ожидание и дисперсию числа сыгранных партий.

Решение. Случайная величина Х - количество сыгранных партий, принимает значения от 1 до 5, т. е.

Определим вероятности окончания матча. Матч закончится на первой партии, если кто-то их спортсменов выиграл. Вероятность выигрыша равна

Р (1) = 0,3+0,3 =0,6.

Если же была ничья (вероятность ничьей равна 1 - 0,6 = 0,4), то матч продолжается. Матч закончится на второй партии, если в первой была ничья, а во второй кто-то выиграл. Вероятность

Р (2) = 0,4 0,6=0,24.

Аналогично, матч закончится на третьей партии, если было подряд две ничьи и опять кто-то выиграл

Р (3) = 0,4 0,4 0,6 = 0,096. Р (4)= 0,4 0,4 0,4 0,6=0,0384.

Пятая партия в любом варианте последняя.

Р (5)= 1 - (Р (1)+Р (2)+Р (3)+Р (4)) = 0,0256.

Сведем все в таблицу. Закон распределения случайной величины "число выигранных партий" имеет вид

Математическое ожидание

Дисперсию вычисляем по формуле (19.4)

Стандартные дискретные распределения.

Биномиальное распределение. Пусть реализуется схема опытов Бернулли: проводится n одинаковых независимых опытов, в каждом из которых событие A может появиться с постоянной вероятностью p и не появится с вероятностью

(см. лекцию 18).

Число появлений события A в этих n опытах есть дискретная случайная величина X , возможные значения которой:

0; 1; 2; ... ; m ; ... ; n.

Вероятность появления m событий A в конкретной серии из n опытов с и закон распределения такой случайной величины задается формулой Бернулли (см. лекцию 18)

Числовые характеристики случайной величины X распределенной по биномиальному закону:

Если n велико (), то, при, формула (19.6) переходит в формулу

а табулированная функция Гаусса (таблица значений функции Гаусса приведена в конце 18 лекции).

На практике часто важна не сама вероятность появления m событий A в конкретной серии из n опытов, а вероятность того, что событие А появится не менее

раз и не более раз, т. е. вероятность того, что Х принимает значения

Для этого надо просуммировать вероятности

Если n велико (), то, при, формула (19.9) переходит в приближенную формулу

табулированная функция. Таблицы приведены в конце лекции 18.

При использовании таблиц надо учесть, что

Пример 1 . Автомобиль, подъезжая к перекрестку, может продолжить движение по любой из трех дорог: A, B или C с одинаковой вероятностью. К перекрестку подъезжают пять автомобилей. Найти среднее число автомашин, которое поедет по дороге A и вероятность того, что по дороге B поедет три автомобиля.

Решение. Число автомашин проезжающих по каждой из дорог является случайной величиной. Если предположить, что все подъезжающие к перекрестку автомобили совершают поездку независимо друг от друга, то эта случайная величина распределена по биномиальному закону с

n = 5 и p = .

Следовательно, среднее число автомашин, которое проследует по дороге A, есть по формуле (19.7)

а искомая вероятность при

Пример 2. Вероятность отказа прибора при каждом испытании 0,1. Производится 60 испытаний прибора. Какова вероятность того, что отказ прибора произойдёт: а) 15 раз; б) не более 15 раз?

а. Так как число испытаний 60, то используем формулу (19.8)

По таблице 1 приложения к лекции 18 находим

б . Используем формулу (19.10).

По таблице 2 приложения к лекции 18

  • - 0,495
  • 0,49995

Распределение Пуассона) закон редких явлений). Если n велико, а р мало (), при этом произведение пр сохраняет постоянное значение, которое обозначим л,

то формула (19.6) переходит в формулу Пуассона

Закон распределения Пуассона имеет вид:

Очевидно, что определение закона Пуассона корректно, т.к. основное свойство ряда распределения

выполнено, т.к. сумма ряда

В скобках записано разложение в ряд функции при

Теорема. Математическое ожидание и дисперсия случайной величины, распределенной по закону Пуассона, совпадают и равны параметру этого закона, т.е.

Доказательство.

Пример. Для продвижения своей продукции на рынок фирма раскладывает по почтовым ящикам рекламные листки. Прежний опыт работы показывает, что примерно в одном случае из 2 000 следует заказ. Найти вероятность того, что при размещении 10 000 рекламных листков поступит хотя бы один заказ, среднее число поступивших заказов и дисперсию числа поступивших заказов.

Решение . Здесь

Вероятность того, что поступит хотя бы один заказ, найдем через вероятность противоположного события, т.е.

Случайный поток событий. Потоком событий называется последовательность событий, происходящие в случайные моменты времени. Типичными примерами потоков являются сбои в компьютерных сетях, вызовы на телефонных станциях, поток заявок на ремонт оборудования и т. д.

Поток событий называется стационарным , если вероятность попадания того или иного числа событий на временной интервал длины зависит только от длины интервала и не зависит не зависит от расположения временного интервала на оси времени.

Условию стационарности удовлетворяет поток заявок, вероятностные характеристики которого не зависят от времени. В частности, для стационарного потока характерна постоянная плотность (среднее число заявок в единицу времени). На практике часто встречаются потоки заявок, которые (по крайней мере, на ограниченном отрезке времени) могут рассматриваться как стационарные. Например, поток вызовов на городской телефонной станции на участке времени от 12 до 13 часов может считаться стационарным. Тот же поток в течение целых суток уже не может считаться стационарным (ночью плотность вызовов значительно меньше, чем днем).

Поток событий называется потоком с отсутствием последействия , если для любых неперекрывающихся участков времени число событий, попадающих на один из них, не зависит от числа событий, попадающих на другие.

Условие отсутствия последействия - наиболее существенное для простейшего потока - означает, что заявки поступают в систему независимо друг от друга. Например, поток пассажиров, входящие на станцию метро, можно считать потоком без последействия потому, что причины, обусловившие приход отдельного пассажира именно в тот, а не другой момент, как правило, не связаны с аналогичными причинами для других пассажиров. Однако условие отсутствия последействия может быть легко нарушено за счет появления такой зависимости. Например, поток пассажиров, покидающих станцию метро, уже не может считаться потоком без последействия, так как моменты выхода пассажиров, прибывших одним и тем же поездом, зависимы между собой.

Поток событий называется ординарным , если вероятность попадания на малый интервал времени t двух или более событий пренебрежимо мала по сравнению с вероятностью попадания одного события (в этой связи закон Пуассона называют законом редких событий).

Условие ординарности означает, что заявки приходят поодиночке, а не парами, тройками и т. д. дисперсия отклонение распределение бернулли

Например, поток клиентов, входящих в парикмахерскую, может считаться практически ординарным. Если в неординарном потоке заявки поступают только парами, только тройками и т. д., то неординарный поток легко свести к ординарному; для этого достаточно вместо потока отдельных заявок рассмотреть поток пар, троек и т. д. Сложнее будет, если каждая заявка случайным образом может оказаться двойной, тройной и т. д. Тогда уже приходится иметь дело с потоком не однородных, а разнородных событий.

Если поток событий обладает всеми тремя свойствами (т. е. стационарен, ординарен и не имеет последействия), то он называется простейшим (или стационарным пуассоновским) потоком. Название "пуассоновский" связано с тем, что при соблюдении перечисленных условий число событий, попадающих на любой фиксированный интервал времени, будет распределено по закону Пуассона

Здесь - среднее число событий A , появляющихся за единицу времени.

Этот закон однопараметрический, т.е. для его задания требуется знать только один параметр. Можно показать, что математическое ожидание и дисперсия в законе Пуассона численно равны:

Пример . Пусть в середине рабочего дня среднее число запросов равняется 2 в секунду. Какова вероятность того, что 1) за секунду не поступит ни одной заявки, 2) за две секунды поступит 10 заявок?

Решение. Поскольку правомерность применения закона Пуассона не вызывает сомнения и его параметр задан (= 2), то решение задачи сводится к применении формулы Пуассона (19.11)

1) t = 1, m = 0:

2) t = 2, m = 10:

Закон больших чисел. Математическим основанием того факта, что значения случайной величины группируются около некоторых постоянных величин, является закон больших чисел.

Исторически первой формулировкой закона больших чисел стала теорема Бернулли:

"При неограниченном увеличении числа одинаковых и независимых опытов n частота появления события A сходится по вероятности к его вероятности", т.е.

где частота появления события A в n опытах,

Содержательно выражение (19.10) означает, что при большом числе опытов частота появления события A может заменять неизвестную вероятность этого события и чем больше число проведенных опытов, тем ближе р* к р. Интересен исторический факт. К. Пирсон бросал монету 12000 раз и герб у него выпал 6019 раз (частота 0.5016). При бросании этой же монеты 24000 раз он получил 12012 выпадений герба, т.е. частоту 0.5005.

Наиболее важной формой закона больших чисел является теорема Чебышева: при неограниченном возрастании числа независимых, имеющих конечную дисперсию и проводимых в одинаковых условиях опытов среднее арифметическое наблюденных значений случайной величины сходится по вероятности к ее математическому ожиданию . В аналитической форме эта теорема может быть записана так:

Теорема Чебышева кроме фундаментального теоретического значения имеет и важное практическое применение, например, в теории измерений. Проведя n измерений некоторой величины х , получают различные несовпадающие значения х 1, х 2, ..., хn . За приближенное значение измеряемой величины х принимают среднее арифметическое наблюденных значений

При этом, чем больше будет проведено опытов, тем точнее будет полученный результат. Дело в том, что дисперсия величины убывает с возрастанием числа проведенных опытов, т.к.

D (x 1) = D (x 2)=…= D (xn ) D (x ) , то

Соотношение (19.13) показывает, что и при высокой неточности приборов измерения (большая величина) за счет увеличения количества измерений можно получать результат со сколь угодно высокой точностью.

Используя формулу (19.10) можно найти вероятность того, что статистическая частота отклоняется от вероятности не более, чем на

Пример. Вероятность события в каждом испытании равна 0,4. Сколько нужно провести испытаний, чтобы с вероятностью, не меньшей, чем 0,8 ожидать, что относительная частота события будет отклоняться от вероятности по модулю менее, чем на 0,01?

Решение. По формуле (19.14)

следовательно, по таблице два приложения

следовательно, n 3932.

В предыдущем мы привели ряд формул, позволяющих находить числовые характеристики функций, когда известны законы распределения аргументов. Однако во многих случаях для нахождения числовых характеристик функций не требуется знать даже законов распределения аргументов, а достаточно знать только некоторые их числовые характеристики; при этом мы вообще обходимся без каких бы то ни было законов распределения. Определение числовых характеристик функций по заданным числовым характеристикам аргументов широко применяется в теории вероятностей и позволяет значительно упрощать решение ряда задач. По преимуществу такие упрощенные методы относятся к линейным функциям; однако некоторые элементарные нелинейные функции также допускают подобный подход.

В настоящем мы изложим ряд теорем о числовых характеристиках функций, представляющих в своей совокупности весьма простой аппарат вычисления этих характеристик, применимый в широком круге условий.

1. Математическое ожидание неслучайной величины

Сформулированное свойство является достаточно очевидным; доказать его можно, рассматривая неслучайную величину как частный вид случайной, при одном возможном значении с вероятностью единица; тогда по общей формуле для математического ожидания:

.

2. Дисперсия неслучайной величины

Если - неслучайная величина, то

3. Вынесение неслучайной величины за знак математического ожидания

, (10.2.1)

т. е. неслучайную величину можно выносить за знак математического ожидания.

Доказательство.

а) Для прерывных величин

б) Для непрерывных величин

.

4. Вынесение неслучайной величины за знак дисперсии и среднего квадратического отклонения

Если - неслучайная величина, а - случайная, то

, (10.2.2)

т. е. неслучайную величину можно выносить за знак дисперсии, возводя ее в квадрат.

Доказательство. По определению дисперсии

Следствие

,

т. е. неслучайную величину можно выносить за знак среднего квадратического отклонения ее абсолютным значением. Доказательство получим, извлекая корень квадратный из формулы (10.2.2) и учитывая, что с.к.о. - существенно положительная величина.

5. Математическое ожидание суммы случайных величин

Докажем, что для любых двух случайных величин и

т. е. математическое ожидание суммы двух случайных величин равно сумме их математических ожиданий.

Это свойство известно под названием теоремы сложения математических ожиданий.

Доказательство.

а) Пусть - система прерывных случайных величин. Применим к сумме случайных величин общую формулу (10.1.6) для математического ожидания функции двух аргументов:

.

Ho представляет собой не что иное, как полную вероятность того, что величина примет значение :

;

следовательно,

.

Аналогично докажем, что

,

и теорема доказана.

б) Пусть - система непрерывных случайных величин. По формуле (10.1.7)

. (10.2.4)

Преобразуем первый из интегралов (10.2.4):

;

аналогично

,

и теорема доказана.

Следует специально отметить, что теорема сложения математических ожиданий справедлива для любых случайных величин - как зависимых, так и независимых.

Теорема сложения математических ожиданий обобщается на произвольное число слагаемых:

, (10.2.5)

т. е. математическое ожидание суммы нескольких случайных величин равно сумме их математических ожиданий.

Для доказательства достаточно применить метод полной индукции.

6. Математическое ожидание линейной функции

Рассмотрим линейную функцию нескольких случайных аргументов :

где - неслучайные коэффициенты. Докажем, что

, (10.2.6)

т. е. математическое ожидание линейной функции равно той же линейной функции от математических ожиданий аргументов.

Доказательство. Пользуясь теоремой сложения м. о. и правилом вынесения неслучайной величины за знак м. о., получим:

.

7. Дисп ep сия суммы случайных величин

Дисперсия суммы двух случайных величин равна сумме их дисперсий плюс удвоенный корреляционный момент:

Доказательство. Обозначим

По теореме сложения математических ожиданий

Перейдем от случайных величин к соответствующим центрированным величинам . Вычитая почленно из равенства (10.2.8) равенство (10.2.9), имеем:

По определению дисперсии

что и требовалось доказать.

Формула (10.2.7) для дисперсии суммы может быть обобщена на любое число слагаемых:

, (10.2.10)

где - корреляционный момент величин , знак под суммой обозначает, что суммирование распространяется на все возможные попарные сочетания случайных величин .

Доказательство аналогично предыдущему и вытекает из формулы для квадрата многочлена.

Формула (10.2.10) может быть записана еще в другом виде:

, (10.2.11)

где двойная сумма распространяется на все элементы корреляционной матрицы системы величин , содержащей как корреляционные моменты, так и дисперсии.

Если все случайные величины , входящие в систему, некоррелированы (т. е. при ), формула (10.2.10) принимает вид:

, (10.2.12)

т. е. дисперсия суммы некоррелированных случайных величин равна сумме дисперсий слагаемых.

Это положение известно под названием теоремы сложения дисперсий.

8. Дисперсия линейной функции

Рассмотрим линейную функцию нескольких случайных величин.

где - неслучайные величины.

Докажем, что дисперсия этой линейной функции выражается формулой

, (10.2.13)

где - корреляционный момент величин , .

Доказательство. Введем обозначение:

. (10.2.14)

Применяя к правой части выражения (10.2.14) формулу (10.2.10) для дисперсии суммы и учитывая, что , получим:

где - корреляционный момент величин :

.

Вычислим этот момент. Имеем:

;

аналогично

Подставляя это выражение в (10.2.15), приходим к формуле (10.2.13).

В частном случае, когда все величины некоррелированны, формула (10.2.13) принимает вид:

, (10.2.16)

т. е. дисперсия линейной функции некоррелированных случайных величин равна сумме произведений квадратов коэффициентов на дисперсии соответствующих аргументов.

9. Математическое ожидание произведения случайных величин

Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс корреляционный момент:

Доказательство. Будем исходить из определения корреляционного момента:

Преобразуем это выражение, пользуясь свойствами математического ожидания:

что, очевидно, равносильно формуле (10.2.17).

Если случайные величины некоррелированны , то формула (10.2.17) принимает вид:

т. е. математическое ожидание произведения двух некоррелированных случайных величин равно произведению их математических ожиданий.

Это положение известно под названием теоремы умножения математических ожиданий.

Формула (10.2.17) представляет собой не что иное, как выражение второго смешанного центрального момента системы через второй смешанный начальный момент и математические ожидания:

. (10.2.19)

Это выражение часто применяется на практике при вычислении корреляционного момента аналогично тому, как для одной случайной величины дисперсия часто вычисляется через второй начальный момент и математическое ожидание.

Теорема умножения математических ожиданий обобщается и на произвольное число сомножителей, только в этом случае для ее применения недостаточно того, чтобы величины были некоррелированны, а требуется, чтобы обращались в нуль и некоторые высшие смешанные моменты, число которых зависит от числа членов в произведении. Эти условия заведомо выполнены при независимости случайных величин, входящих в произведение. В этом случае

, (10.2.20)

т. е. математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий.

Это положение легко доказывается методом полной индукции.

10. Дисперсия произведения независимых случайных величин

Докажем, что для независимых величин

Доказательство. Обозначим . По определению дисперсии

Так как величины независимы, и

При независимых величины тоже независимы; следовательно,

,

Но есть не что иное, как второй начальный момент величины , и, следовательно, выражается через дисперсию:

;

аналогично

.

Подставляя эти выражения в формулу (10.2.22) и приводя подобные члены, приходим к формуле (10.2.21).

В случае, когда перемножаются центрированные случайные величины (величины с математическими ожиданиями, равными нулю), формула (10.2.21) принимает вид:

, (10.2.23)

т. е. дисперсия произведения независимых центрированных случайных величин равна произведению их дисперсий.

11. Высшие моменты суммы случайных величин

В некоторых случаях приходится вычислять высшие моменты суммы независимых случайных величин. Докажем некоторые относящиеся сюда соотношения.

1) Если величины независимы, то

Доказательство.

откуда по теореме умножения математических ожиданий

Но первый центральный момент для любой величины равен нулю; два средних члена обращаются в нуль, и формула (10.2.24) доказана.

Соотношение (10.2.24) методом индукции легко обобщается на произвольное число независимых слагаемых:

. (10.2.25)

2) Четвертый центральный момент суммы двух независимых случайных величин выражается формулой

где - дисперсии величин и .

Доказательство совершенно аналогично предыдущему.

Методом полной индукции легко доказать обобщение формулы (10.2.26) на произвольное число независимых слагаемых.