Закон распределения суммы двух случайных. Нормальный закон распределения системы двух случайных величин

На практике часто возникает надобность находить закон распределения суммы случайных величин.

Пусть имеются система (Х ь Х 2) двух непрерывных с. в. и их сумма

Найдем плотность распределения с. в. У. В соответствии с общим решением предыдущего пункта, находим область плоскости где х+ х 2 (рис. 9.4.1):

Дифференцируя это выражение по у, получим п. р. случайной величины У= Х + Х 2:

Так как функция ф (х ь х 2) = Xj + х 2 симметрична относительно своих аргументов, то

Если с. в. Х и Х 2 независимы, то формулы (9.4.2) и (9.4.3) примут вид:


В случае, когда складываются независимые с. в. Х х и Х 2 , говорят о композиции законов распределения. Произвести композицию двух законов распределения - это значит найти закон распределения суммы двух независимых с. в., распределенных по этим законам. Для обозначения композиции законов распределения применяется символическая запись

которой по существу обозначаются формулы (9.4.4) или (9.4.5).

Пример 1. Рассматривается работа двух технических устройств (ТУ). Сначала работает ТУь после его выхода из строя (отказа) включается в работу ТУ 2 . Времена безотказной работы ТУ Ь ТУ 2 - Х х и Х 2 - независимы и распределены по показательным законам с параметрами А,1 и Х 2 . Следовательно, время Y безотказной работы ТУ, состоящего из ТУ! и ТУ 2 , будет определяться по формуле

Требуется найти п. р. случайной величины Y, т. е. композицию двух показательных законов с параметрами и Х 2 .

Решение. По формуле (9.4.4) получим (у > 0)


Если находится композиция двух показательных законов с одинаковыми параметрами (?ц = Х 2 = У), то в выражении (9.4.8) получается неопределенность типа 0/0, раскрывая которую, получим:

Сравнивая это выражение с выражением (6.4.8), убеждаемся в том, что композиция двух одинаковых показательных законов (?ц = Х 2 = X) представляет собой закон Эрланга второго порядка (9.4.9). При композиции двух показательных законов с различными параметрами Х х и А-2 получают обобщенный закон Эрланга второго порядка (9.4.8). ?

Задача 1. Закон распределения разности двух с. в. Система с. в. (Х и Х 2) имеет совместную п. р./(х ь х 2). Найти п. р. их разности У= Х - Х 2 .

Решение. Для системы с. в. (Х ь - Х 2) п. р. будет/(х ь - х 2), т. е. мы разность заменили суммой. Следовательно, п. р. случайной величины Убудет иметь вид (см. (9.4.2), (9.4.3)):

Если с. в. Х х иХ 2 независимы, то

Пример 2. Найти п. р. разности двух независимых показательно распределенных с. в. с параметрами Х х и Х 2 .

Решение. По формуле (9.4.11) получим

Рис. 9.4.2 Рис. 9.4.3

На рисунке 9.4.2 изображена п. р. g (у). Если рассматривается разность двух независимых показательно распределенных с. в. с одинаковыми параметрами (A-i = Х 2 = А,), то g (у) = /2 - уже знакомый

закон Лапласа (рис. 9.4.3). ?

Пример 3. Найти закон распределения суммы двух независимых с. в. Х и Х 2 , распределенных по закону Пуассона с параметрами а х и а 2 .

Решение. Найдем вероятность события (Х х + Х 2 = т) (т = 0, 1,



Следовательно, с. в. У= Х х + Х 2 распределена по закону Пуассона с параметром а х2) - а х + а 2 . ?

Пример 4. Найти закон распределения суммы двух независимых с. в. Х х и Х 2 , распределенных по биномиальным законам с параметрами п х ри п 2 , р соответственно.

Решение. Представим с. в. Х х в виде:

где Х 1) - индикатор события А ву"-м опыте:

Ряд распределения с. в. X,- имеет вид


Аналогичное представление сделаем и для с. в. Х 2: где Х] 2) - индикатор события А в у"-м опыте:


Следовательно,

где Х? 1)+(2) если индикатор события А:

Таким образом, мы показали, что с. в. Тесть сумма (щ + п 2) индикаторов события А , откуда следует, что с. в. ^распределена по биномиальному закону с параметрами (п х + п 2), р.

Заметим, что если вероятности р в различных сериях опытов различны, то в результате сложения двух независимых с. в., распределенных по биномиальным законам, получится с. в., распределенная не по биномиальному закону. ?

Примеры 3 и 4 легко обобщаются на произвольное число слагаемых. При композиции законов Пуассона с параметрами а ъ а 2 , ..., а т снова получается закон Пуассона с параметром а (т) = а х + а 2 + ... + а т.

При композиции биномиальных законов с параметрами (п ь р ); (я 2 , р) , (п т, р) снова получается биномиальный закон с параметрами («(«), Р), где п (т) = щ+ п 2 + ... + п т.

Мы доказали важные свойства закона Пуассона и биномиального закона: «свойство устойчивости». Закон распределения называется устойчивым, если при композиции двух законов одинакового типа получается закон того же типа (различаются только параметры этого закона). В подразделе 9.7 мы покажем, что таким же свойством устойчивости обладает нормальный закон.

Рассмотрим систему двух случайных непрерывных величин . Законом распределения этой системы является нормальный закон распределения, если функция плотности вероятности этой системы имеет вид

. (1.18.35)

Можно показать, что здесь – математические ожидания случайных величин, – их среднеквадратические отклонения, – коэффициент корреляции величин . Вычисления по формулам (1.18.31) и (1.18.35) дают

. (1.18.36)

Легко видеть, что если случайные величины , распределенные по нормальному закону не коррелированны , то они являются также и независимыми

.

Таким образом, для нормального закона распределения не коррелированность и независимость – эквивалентные понятия.

Если , то случайные величины зависимы. Условные законы распределения вычисляются по формулам (1.18.20)

. (1.18.37)

Оба закона (1.18.37) представляют собой нормальные распределения. В самом деле, преобразуем, например, второе из соотношений (1.18.37) к виду

.

Это действительно нормальный закон распределения, у которого условное математическое ожидание равно

, (1.18.38)

а условное среднеквадратичное отклонение выражается формулой

. (1.18.39)

Отметим, что в условном законе распределения величины при фиксированном значении от этого значения зависит только условное математическое ожидание, но не условная дисперсия – .

На координатной плоскости зависимость (1.18.38) представляет собой прямую линию

, (1.18.40)

которая называется линией регрессии на .

Совершенно аналогично устанавливается, что условное распределение величины при фиксированном значении

, (1.18.41)

есть нормальное распределение с условным математическим ожиданием

, (1.18.42)

условным среднеквадратичным отклонением

. (1.18.43)

В этом случае линия регрессии имеет вид

. (1.18.44)

Линии регрессии (1.18.40) и (1.18.44) совпадают только тогда, когда зависимость между величинами и является линейной. Если величины и независимы, линии регрессии параллельны координатным осям.

Конец работы -

Эта тема принадлежит разделу:

Конспект лекций по математике теория вероятностей математическая статистика

Кафедра высшей математики и информатики.. конспект лекций.. по математике..

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ:

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Теория вероятностей
Теория вероятностей – раздел математики, в котором изучаются закономерности случайных массовых явлений. Случайным называется явление, которо

Статистическое определение вероятности
Событием называется случайное явление, которое в результате опыта может появится или не появится (двузначное явление). Обозначают события большими латинскими буквами

Пространство элементарных событий
Пусть с некоторым опытом связано множество событий, причем: 1) в результате опыта появляется одно и только одно

Действия на событиями
Суммой двух событий и

Перестановки
Число различных перестановок из элементов обозначается

Размещения
Размещением из элементов по

Сочетания
Сочетанием из элементов по

Формула сложения вероятностей для несовместных событий
Теорема. Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий. (1

Формула сложения вероятностей для произвольных событий
Теорема. Вероятность суммы двух событий равна сумме вероятностей этих событий без вероятности их произведения.

Формула умножения вероятностей
Пусть даны два события и. Рассмотрим событие

Формула полной вероятности
Пусть – полная группа несовместных событий, их называют гипотезами. Рассмотрим некоторое событие

Формула вероятностей гипотез (Байеса)
Рассмотрим снова – полную группу несовместных гипотез и событие

Асимптотическая формула Пуассона
В тех случаях, когда число испытаний велико, а вероятность появления события

Случайные дискретные величины
Случайной называется величина, которая при повторении опыта может принимать неодинаковые числовые значения. Случайная величина называется дискретной,

Случайные непрерывные величины
Если в результате опыта случайная величина может принимать любое значение из некоторого отрезка или всей действительной оси, то она называется непрерывной. Законо

Функция плотности вероятности случайной непрерывной величины
Пусть. Рассмотрим точку и дадим ей приращени

Числовые характеристики случайных величин
Случайная дискретная или непрерывная величины считаются полностью заданными, если известны их законы распределения. В самом деле, зная законы распределения можно всегда вычислить вероятность попада

Квантили случайных величин
Квантилем порядка случайной непрерывной величины

Математическое ожидание случайных величин
Математическое ожидание случайной величины характеризует ее среднее значение. Все значения случайной величины группируются вокруг этого значения. Рассмотрим сначала случайную дискретную величину

Среднеквадратичное отклонение и дисперсия случайных величин
Рассмотрим сначала случайную дискретную величину. Числовые характеристики мода, медиана, квантили и математическое ожида

Моменты случайных величин
Кроме математического ожидания и дисперсии в теории вероятностей используются числовые характеристики более высоких порядков, которые называются моментами случайных величин.

Теоремы о числовых характеристиках случайных величин
Теорема 1. Математическое ожидание неслучайной величины равно самой этой величине. Доказательство:Пусть

Биномиальный закон распределения

Закон распределения Пуассона
Пусть случайная дискретная величина, принимающая значения

Равномерный закон распределения
Равномерным законом распределения случайной непрерывной величины называется закон функция плотности вероятности, которого

Нормальный закон распределения
Нормальным законом распределения случайной непрерывной величины называется закон функция плотност

Экспоненциальный закон распределения
Экспоненциальное или показательное распределение случайной величины применяется в таких приложениях теории вероятностей, как теория массового обслуживания, теория надежности

Системы случайных величин
На практике в приложениях теории вероятностей часто приходиться сталкиваться с задачами, в которых результаты эксперимента описываются не одной случайной величиной, а сразу несколькими случайными в

Система двух случайных дискретных величин
Пусть две случайные дискретные величины образуют систему. Случайная величина

Система двух случайных непрерывных величин
Пусть теперь систему образуют две случайные непрерывные величины. Законом распределения этой системы называется вероятно

Условные законы распределения
Пусть и зависимые случайные непрерывные велич

Числовые характеристики системы двух случайных величин
Начальным моментом порядка системы случайных величин

Система нескольких случайных величин
Полученные результаты для системы их двух случайных величии могут быть обобщены на случай систем, состоящих из произвольного числа случайных величин. Пусть система образована совокупностью

Предельные теоремы теории вероятностей
Основной целью дисциплины теория вероятностей является изучение закономерностей случайных массовых явлений. Практика показывает, что наблюдение массы однородных случайных явлений обнаружив

Неравенство Чебышева
Рассмотрим случайную величину с математическим ожиданием

Теорема Чебышева
Если случайные величины попарно независимы и имеют конечные ограниченные в совокупности дисперсии

Теорема Бернулли
При неограниченном увеличении числа опытов частота появления события сходится по вероятности к вероятности события

Центральная предельная теорема
При сложении случайных величин с любыми законами распределения, но с ограниченными в совокупности дисперсиями, закон расп

Основные задачи математической статистики
Рассмотренные выше законы теории вероятностей представляют собой математическое выражение реальных закономерностей, фактически существующих в различных случайных массовых явлениях. Изучая

Простая статистическая совокупность. Статистическая функция распределения
Рассмотрим некоторую случайную величину, закон распределения которой неизвестен. Требуется на основании опытных данных о

Статистический ряд. Гистограмма
При большом числе наблюдений (порядка сотен) генеральная совокупность становится неудобной и громоздкой для записи статистического материала. Для наглядности и компактности статистический материал

Числовые характеристики статистического распределения
В теории вероятностей рассматривались различные числовые характеристики случайных величин: математическое ожидание, дисперсию, начальные и центральные моменты различных порядков. Аналогичные числов

Выбор теоретического распределения по методу моментов
Во всяком статистическом распределении неизбежно присутствуют элементы случайности, связанные с ограниченностью числа наблюдений. При большом числе наблюдений эти элементы случайности сглаживаются,

Проверка правдоподобия гипотезы о виде закона распределения
Пусть заданное статистическое распределение аппроксимировано некоторой теоретической кривой или

Критерии согласия
Рассмотрим один из наиболее часто применяемых критериев согласия – так называемый критерий Пирсона. Предположи

Точечные оценки для неизвестных параметров распределения
В п.п. 2.1. – 2.7 мы подробно рассмотрели способы решения первой и второй основных задач математической статистики. Это задачи определения законов распределения случайных величин по опытным данным

Оценки для математического ожидания и дисперсии
Пусть над случайной величиной с неизвестными математическим ожиданием

Доверительный интервал. Доверительная вероятность
На практике при малом числе опытов над случайной величиной приближенная замена неизвестного параметра

Рассмотрим случай, когда третья случайная величина Z является суммой двух независимых случайных величин X и Y , то есть

Плотности этих величин
соответственно. Плотность распределенияZ

Этот интеграл называется сверткой или композицией плотностей и обозначается следующим образом:

.

Таким образом, если независимые случайные величины суммируются, то их плотности распределения свертываются.

Это правило распространяется на сумму любого числа независимых слагаемых. То есть, если

.

Пример. Определим плотность распределения суммы двух равномерно распределенных величин X 1 и X 2 c плотностями:

После подстановки этих плотностей в (13.2.1) и интегрирования в предположении
получаем, что

Эта плотность называется трапециодальной (см. рис.13.2.1). Если
, то трапеции вырождается в равнобедренный треугольник и соответствующая плотность называется плотностью Сипсона.

Рис.13.2.1.Трапециодальное распределение – свертка двух равномерных распределений.

13.3.Распределение суммы нормально распределенных случайных величин

Если
, X и Y независимы и нормально распределены с плотностями

то сумма Z будет распределена тоже нормально с плотностью

,

Этот факт доказывается непосредственным интегрированием интеграла сверстки (13.2.1) после подстановки
и
.

Справедливо и более общее утверждение: если

, (13.3.1)

где иb - константы, а Х i – независимые нормально распределенные случайные величины со средними значениями
и дисперсиями, тоY будет распределено тоже нормально со средним значением

(13.3.2)

и дисперсией

. (13.3.3)

Отсюда вытекает, что если суммируются независимые нормально распределенные случайные величины, то сумма будет иметь тоже нормальное распределение с математическим ожиданием, равным сумме математических ожиданий слагаемых и дисперсией, равной сумме дисперсий слагаемых. То есть, если

,

. (13.3.4)

14.Предельные теоремы

14.1.Понятие о законе больших чисел

Из опыта известно, что в массовых явлениях результат мало зависит от отдельных проявлений. Например, давление, оказываемое газом на стенки сосуда, складывается в результате ударов молекул газа о стенки. Не смотря на то, что каждый удар по силе и направлению совершенно случайны итоговое давление оказывается практически детерминированным. То же самое можно сказать о температуре тела, которая определяет среднюю кинетическую энергию движения атомов тела. Сила тока есть проявление движения элементарных зарядов(электронов). Конкретные особенности каждого случайного явления почти не сказываются на среднем результате массы таких явлений. Случайные отклонения от среднего, неизбежные в каждом отдельном явлении, в массе взаимно погашаются, нивелируются, выравниваются. Именно этот факт – устойчивость средних - лежит в основе закона больших чисел: при большом числе случайных явлений средний их результат практически перестает быть случайным и может быть предсказан с большой степенью определенности.

В теории вероятностей под законом больших чисел понимается ряд математических теорем, в каждой из которых при тех или иных условиях устанавливается факт приближения средних характеристик большого числа опытов к постоянным величинам или к предельным распределениям.

Пусть пространство элементарных исходов случайного эксперимента таково, что каждому исходу i j ставиться в соответствие значение случайной величины, равное x i и значение случайной величины, равное y j .

  • 1. Представим себе большую совокупность деталей, имеющих вид стержня. Эксперимент заключается в случайном выборе одного стержня. Этот стержень имеет длину, которую будем обозначать и толщину- (можно указать другие параметры-объем, вес, чистота обработки, выраженная в стандартных единицах).
  • 2. Если рассмотреть акции двух различных корпораций, то в данный день биржевых торгов они каждая из них характеризуется определённой доходностью. Случайные величины и - это доходности акций этих корпораций.

В этих случаях мы можем говорить о совместном распределении случайных величин и или о "двумерной" случайной величине.

Если и дискретны и принимают конечное число значений (- n значений, а - k значений), то закон совместного распределения случайных величин и можно задать, если каждой паре чисел x i , y j (где x i принадлежит множеству значений, а y j -множеству значений) поставить в соответствие вероятность p i j , равную вероятности события, объединяющего все исходы i j (и состоящего лишь из этих исходов), которые приводят к значениям = xi ; = y j .

Такой закон распределения можно задать в виде таблицы:

Очевидно:

Если просуммировать все р i j в i -й строке, то получим:

Вероятность того, что случайная величина примет значение x i . Аналогично, если просуммировать все р i j в j -м столбце, то получим:

вероятность того, что принимает значение y j .

Соответствие x i P i (i = 1,2,n ) определяет закон распределения, также как соответствие y j P j (j = 1,2,k ) определяет закон распределения случайной величины.

Очевидно:

Раньше мы говорили, что случайные величины и независимы, если:

pij=PiP j (i= 1,2,,n ; j= 1,2,k).

Если это не выполняется, то и зависимы.

В чем проявляется зависимость случайных величин и и как ее выявить из таблицы?

Рассмотрим столбец y 1 . Каждому числу x i поставим в соответствие число:

p i/ 1 = (1)

которое будем называть условной вероятностью = x i при =y 1 . Обратите внимание на то, что это не вероятность P i события = x i , и сравните формулу (1) с уже известной формулой условной вероятности:

Соответствие x i р i / 1 , (i =1,2,n ) будем называть условным распределением случайной величины при =y 1 . Очевидно:

Аналогичные условные законы распределения случайной величины можно построить при всех остальных значениях, равных y 2 ; y 3 , y n , ставя в соответствие числу x i условную вероятность:

p i/j = ().

В таблице приведён условный закон распределения случайной величины при =y j

Можно ввести понятие условного математического ожидания при = y j

Заметим, что и равноценны. Можно ввести условное распределение при =x i соответствием

(j = 1,2,k ).

Также можно ввести понятие условного математического ожидания случайной величины при =x i :

Из определения следует, что если и независимы, то все условные законы распределения одинаковы и совпадают с законом распределения (напоминаем, что закон распределения определяется в таблице (*) первым и последним столбцом). При этом очевидно, совпадают все условные математические ожидания М:

/ = y j ,

при j = 1,2,k , которые равны М.

Если условные законы распределения при различных значениях различны, то говорят, что между и имеет место статистическая зависимость.

Пример I. Пусть закон совместного распределения двух случайных величин и задан следующей таблицей. Здесь, как говорилось ранее, первый и последний столбцы определяют закон распределения случайной величины, а первая и последняя строки - закон распределения случайной величины.

Найдем законы распределений случайных величин:

Чтобы получить =2 и =0, нужно чтобы приняла значение 0, а приняла значение 2. Так как и независимы, то

Р(=2; =0)= Р(=0; =2)=Р(=0)Р(=2)=1/12.

Очевидно также Р(=3; =0)=0.

Построим полигоны условных распределений. Здесь зависимость от довольно близка к функциональной: значению =1 соответствует единственное =2, значению =2 соответствует единственное =3, но при =0 мы можем говорить лишь, что с вероятностью 3/4 принимает значение 1 и с вероятностью 1/4 - значение 2.

Пример III. Рассмотрим закон совместного распределения и, заданный таблицей

Законы условных распределений не отличаются друг от друга при =1,2,3 и совпадают с законом распределения случайной величины. В данном случае и независимы.

Характеристикой зависимости между случайными величинами и служит математическое ожидание произведения отклонений и от их центров распределений (так иногда называют математическое ожидание случайной величины), которое называется коэффициентом ковариации или просто ковариацией.

cov(;) = M ((- M )(- M ))

Пусть = x 1 , x 2 , x 3 , x n , = y 1 , y 2 , y 3 ,y k .

Эту формулу можно интерпретировать так. Если при больших значениях более вероятны большие значения, а при малых значениях более вероятны малые значения, то в правой части формулы (2) положительные слагаемые доминируют, и ковариация принимает положительные значения.

Если же более вероятны произведения (x i - M )(y j - M ), состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям в основном приводят к малым значениям и наоборот, то ковариация принимает большие по модулю отрицательные значения.

В первом случае принято говорить о прямой связи: с ростом случайная величина имеет тенденцию к возрастанию.

Во втором случае говорят об обратной связи: с ростом случайная величина имеет тенденцию к уменьшению или падению. Если примерно одинаковый вклад в сумму дают и положительные и отрицательные произведения (x i - M )(y j - M )p i j , то можно сказать, что в сумме они будут "гасить" друг друга и ковариация будет близка к нулю. В этом случае не просматривается зависимость одной случайной величины от другой.

Легко показать, что если:

P ((= x i )(= y j )) = P (= x i )P (= y j ) (i = 1,2,n ; j = 1,2,k ),

Действительно из (2) следует:

Здесь использовано очень важное свойство математического ожидания: математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю .

Доказательство (для дискретных случайных величин с конечным числом значений).

Ковариацию удобно представлять в виде

cov(;)=M (- M - M +MM )=M ()- M (M )- M (M )+M (MM )= M ()- MM - MM +MM =M ()- MM

Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий.

Легко доказывается следующее свойство математического ожидания: если и -независимые случайные величины, то:

М ()=ММ .

(Доказать самим, используя формулу:

Таким образом, для независимых случайных величин и cov(;)=0.

  • 1. Монету подбрасывают 5 раз. Случайная величина - число выпавших гербов, случайная величина - число выпавших гербов в последних двух бросках. Построить совместный закон распределения случайных величин, построить условные законы распределения при различных значениях. Найти условные математические ожидания и ковариацию и.
  • 2. Две карты наудачу извлекаются из колоды в 32 листа. Случайная величина - число тузов в выборке, случайная величина - число королей в выборке. Построить совместный закон распределения и, построить условные законы распределения при различных значениях. Найти условные математические ожидания и ковариацию и.