Система случайных величин дискретный случай. Самостоятельная работа по лекционному курсу. Двумерная плотность вероятности

В статистической радиотехнике частот приходится иметь дело одновременно с несколькими случайными величинами, например, мгновенные значения напряжения на выходах антенной решетки при воздействии на ее вход сигналов и помех и т.д. Свойства системы нескольких СВ не исчерпываются свойствами отдельной СВ, так как при этом необходимо описание связи между составляющими системы СВ.

1. Функции распределения системы из двух случайных величин

Функцией распределения системы из двух СВ

называется вероятность совместного выполнения двух неравенств и : .

По определению, функция распределения

есть вероятность попадания случайной точки с координатами в квадрат с бесконечными размерами, расположенный левее и ниже этой точки на плоскости . Отдельно для каждой СВ X и Y можно определить одномерную функцию распределения, например, есть вероятность попадания в полуплоскость, расположенную левее точки с координатой x . Также и есть вероятность попадания в полуплоскость ниже точки y .

Свойства

: есть неубывающая функция обоих своих аргументов;

2) на - ¥ по обеим осям она равна нулю;

3) при равенстве +¥ одного из аргументов согласно другому аргументу она превращается в одномерную функцию распределения;

4) если оба аргумента равны +¥, то

= 1.

Вероятность попадания случайной точки в квадрат R с координатами

по оси x и по оси y равна . существует как для непрерывных, так и для дискретных СВ.

2. Двумерная плотность вероятности

Двумерная плотность вероятности есть предел следующего отношения:

. не только непрерывна, но и дифференцируема, то двумерная плотность вероятности есть вторая смешанная частная производная функции по x и по y .

Размерность

обратна произведению размерностей СВ X и Y.

Таким образом, двумерная плотность вероятности есть предел отношению вероятности попадания точки в малый прямоугольник к площади этого прямоугольника, когда оба размера прямоугольника стремятся к нулю. Геометрически

можно представить как некоторую поверхность.

Если рассечь эту поверхность плоскостью, параллельной плоскости x 0y , и спроецировать полученное сечение на плоскость x 0y , то получится кривая, называемая "кривой равной плотности вероятности".

Иногда удобно рассматривать семейства кривых равной плотности при разных уровнях сечения. Как и для одномерной плотности вероятности, здесь вводится понятие элемента вероятности

.

Вероятность попадания случайной точки в произвольную область G определяется двумерным интегралом от

по этой области. Геометрически это объем, ограниченный и областью G .

Если G есть прямоугольник с координатами вершин по оси x :

и , а по оси y : и , то вероятность попадания случайной точки в этот прямоугольник определяется интегралом .

Свойства двумерной плотности вероятности:

есть неотрицательная величина;

свойство нормировки аналогично одномерной плотности вероятности, но при двумерном интегрировании в бесконечных пределах.

3. Условные законы распределения отдельных СВ, входящих в систему СВ

Имея закон распределения системы двух СВ, всегда можно определить законы распределения отдельных СВ, входящих в систему. Например,

и . Если известна плотность вероятности , то .

Аналогично определяется

.

Таким образом, зная двумерную плотность вероятности, всегда можно определить одномерную плотность вероятности. Обратную задачу в общем случае решить невозможно. Ее можно решить, если известны условные плотности вероятности или функции распределения.

Условным законом распределения СВ, входящей в систему, называется ее закон распределения, определенный при условии, что другая СВ приняла определенное значение:

. В этом случае можно найти двумерную плотность вероятности по формуле . Из этих выражений следует: , .

4. Статистическая взаимозависимость и независимость

СВ X называется независимой от СВ Y , если закон распределения величины X не зависит от того, какое значение приняла СВ Y. В этом случае

при любом y . Необходимо заметить, что если СВ X не зависит от СВ Y , то и СВ Y не зависит от СВ X . Для независимых СВ теорема умножения законов распределения имеет вид: .

Это условие рассматривается как необходимое и достаточное условие независимости СВ. Различают понятия функциональной и статистической зависимостей. При статистической зависимости нельзя указать точно значение, которое принимает одна из СВ, если известно значение другой, можно лишь определить влияние в среднем. Но по мере увеличения взаимозависимости статистическая зависимость превращается в функциональную.

До сих пор в курсе рассматривались случайные величины, каждое значение которых определяется одним числом. Такие случайные величины иногда называют одномерными.

Кроме одномерных случайных величин существуют случайные величины, значения которых определяются парой чисел. Такие случайные величины называют двумерными и обозначаются Двумерную случайную величину можно рассматривать, как систему двух случайных величин и , каждую из которых при этом называют составляющей двумерной случайной величины.

Рассмотрим сначала случай, когда случайные величины и , составляющие двумерную случайную величину, является дискретными.

Законом распределения дискретной случайной величины называют перечень возможных значений этой величины, то есть пар () и их вероятностей .

Закон распределения показан в таблице 4.2.1:

Таблица 4.2.1

Запишем условие нормировки закона распределения двумерной случайной величины. Учитывая, что события при условии ; образуют полную группу несовместных событий, получим, что . Практически это означает, что сумма вероятностей, содержащихся во всех клетках таблицы 4.2.1, составляет 1.

Поставим задачу определения законов распределения составляющих и на основе двумерного закона распределения. Рассмотрим вероятность . Событие можно представить как сумму несовместных событий ,…. Поэтому:

Что означает, что равна сумме элементов соответствующей -ой строки таблицы 4.1.

Используя аналогичные рассуждения, получим:

То есть вероятность равна сумме элементов соответствующего j-го столбца таблицы 1.1

Пример 4.2.1. Найти законы распределений составляющих двумерной случайной величины, заданной законом распределения:

Таблица 4.2.2

0,2 0,3 0,5
0,3 0,2 0,5
0,5 0,5

Решение:

Вероятности, определяющие закон распределения составляющей , представлены в крайнем правом столбце таблицы 4.2.2

Аналогично вычисляется закон распределения составляющей (нижняя строка таблицы 4.2.2).

Определим понятие независимости двух случайных величин и . Ранее независимость двух случайных величин определялась как независимость распределения одной случайной величины от значения, которое принимает другая случайная величина.

Для дискретных независимых случайных величин события и - независимые события для всех возможных значений и . Поэтому, две дискретные случайные величины независимы, если для всех возможных значений и :



Например, случайные величины и , закон распределения которых приведен в таблице 4.2.3, независимы.

Таблица 4.2.3

0,08 0,12 0,2
0,24 0,42 0,8
0,4 0,6

Рассмотрим две случайные величины , и оценим степень зависимости между этими случайными величинами. Существуют два крайних случая: с одной стороны, случайные величины могут быть независимыми, с другой стороны зависимость между двумя случайными величинами может быть функциональной, то есть по значению одной случайной величины можно однозначно определить значение другой случайной величины. Обычно, для произвольных случайных величин степень зависимости занимает некое промежуточное между перечисленными случаями значение.

Например, если - оценка, полученная студентом на экзамене по некоторому предмету, а - число лекций, которые он посетил, то случайные величины и . имеют некоторую зависимость.

Поставим задачу оценки зависимости (или степени связи) двух случайных величин и . Рассмотрим центральный смешанный момент двух случайных величин и :

Называемый коэффициентом ковариации, или коэффициентом связи, двух случайных величин.

Заметим, что формула для коэффициента ковариации может быть преобразована к более простому виду: . Применим этот коэффициент для оценки связи двух случайных величин. Однако величина зависит от единиц измерения случайных величин и , и поэтому сама по себе не может служить оценкой связи случайных величин и .

Рассмотрим стандартные случайные величины ; , где , , , . Данные случайные величины представляют собой нормированные отклонения, записанные для исходных случайных величин.

а величина называется коэффициентом корреляции пары случайных величин.

Пример 4.2.2. Найти коэффициент корреляции для случайных величин, заданных таблицей 4.2.2.

Решение:

Воспользуемся для вычисления коэффициента корреляции формулой: . Учитывая, что распределения составляющих и вычислены, получим:

Используя коэффициент ковариации можно записать формулу для дисперсии суммы (разности) произвольных случайных величин и :

Записывая последнюю формулу для стандартных величин и и учитывая, что дисперсия случайной величины не может быть отрицательной, получим: .случайная величина имеет тенденцию к увеличению. В этом случае прямая , аппроксимирующая зависимость между двумя случайными величинами, имеет положительный угловой коэффициент (а >0).

Пара (X , Y ) – где X и Y – случайные величины, называется системой двух случайных величин . Если X и Y – дискретные случайные величины, то законом распределения системы двух случайных величин (X , Y ) является множество всех пар возможных значений величин X и Y и вероятностей их совместного появления. Такой закон удобно задавать в виде таблицы, которая носит название таблицы распределения двумерной случайной величины (X , Y ).

События, состоящие в том, что случайная величина Х примет значение (i = 1, 2, …, n ), а случайная величина Y примет значение (j = 1, 2, …, m ), несовместны и единственно возможны, т.е. образуют полную группу попарно несовместных событий, поэтому сумма всех вероятностей таблицы равна единице: .

Y X
x 1 x 2 x n
y 1 P (x 1 , y 1) P (x 2 , y 2) P (x n , y 1)
y m P (x 1 , y m ) P (x 2 , y m ) P (x n , y m )

По закону распределения двумерной случайной величины (X , Y ) можно найти законы распределения каждой случайной величины X и Y . Для того, чтобы найти вероятность Х примет значение , надо просуммировать вероятности столбца : . Аналогично, для того, чтобы найти вероятность того, что случайная величина Y примет значение , надо просуммировать вероятности строки : .

Вероятность - это вероятность того, что случайная величина Х примет значение , а случайная величина Y примет значение . Эту вероятность по теореме умножения вероятностей можно записать в виде: . Из этого равенства можно получить формулы:

, .

Функцией распределения системы двух случайных величин (X , Y ) называется вероятность совместного выполнения двух неравенств Х < х , Y < y :

Y и вычисляемое по формуле:

.

x , называют функцией регрессии Y на X .

Условным математическим ожиданием дискретной случайной величины Х при называется число, обозначаемое и вычисляемое по формуле:

.

Функцию , как функцию аргумента y , называют функцией регрессии X на Y .

Корреляционным моментом (или ковариацией ) случайных величин X и Y называется математическое ожидание произведения отклонений этих величин от их математических ожиданий:

Корреляционный момент можно найти по формуле:

Для независимых случайных величин X и Y .

Для дискретных случайных величин X и Y корреляционный момент равен:



Коэффициентом корреляции случайных величин X и Y называется безразмерная величина:

,

Где , .

Свойства коэффициента корреляции

1. Коэффициент корреляции характеризует тесноту и направление корреляционной связи.

3. Если Х и Y - независимые случайные величины, то коэффициент корреляции равен 0.

4. Если , то между величинами Х и Y имеет место функциональная зависимость, а именно, линейная. Отсюда следует, что коэффициент корреляции измеряет тесноту линейной связи между величинами Х и Y .

5. Если , то связь между величинами прямая (положительная корреляция), т.е. при увеличении значений одного признака значения другого признака увеличиваются. Если , то связь обратная (отрицательная корреляция), т.е. при увеличении значений одного признака значения другого признака уменьшаются.

6. Если , то корреляционная связь очень слабая;

если , то корреляционная связь слабая;

если

если , то корреляционная связь умеренная;

если , то корреляционная связь тесная или сильная.

Две случайные величины называются коррелированными , если их коэффициент корреляции отличен от нуля, и некоррелированными, если он равен нулю.

При рассмотрении двумерной случайной величины (X , Y ), где X и Y – зависимые случайные величины, используются различные приближения одной случайной величины с помощью другой. Важнейшим из них является линейное приближение.

Представим случайную величину Y в виде линейной функции величины Х :

,

где α и β – параметры, подлежащие определению. Если числа a и b подобраны так, что величина будет наименьшей, то числовая функция называется линейной средней квадратической регрессией Y на X . Нахождение такой прямой называют наилучшим приближением Y по методу наименьших квадратов. Коэффициент a называется коэффициентом регрессии Y на X . Известно, что

, .



Уравнение с учетом предыдущих формул можно записать в виде:

.

Аналогично, уравнение называется линейной средней квадратической регрессией X на Y записывается в виде:

,

где , .

Задача. Система дискретных случайных величин задана таблицей:

X
Y

1) корреляционный момент;

2) коэффициент корреляции;

3) функцию линейной регрессии Y на X ;

4) функцию линейной регрессии X на Y .

Решение. 1) Корреляционный момент находится по формуле .

; ;

2) По формуле .

11. Функция распределения системы двух случайных величин.

До сих пор рассматривались случайные величины, возможные значения которых определялись одним числом. Такие величины называют одномерными. Например, число очков, которое может выпасть при бросании игральной кости, - дискретная одномерная величина; расстояние от орудия до места падения снаряда – непрерывная одномерная случайная величина.

Кроме одномерных случайных величин, изучают величины, возможные значения которых определяются двумя, тремя, …, n числами. Такие величины называются соответственно двумерными, трехмерными,…, n-мерными. Будем обозначать через (X,Y) двумерную случайную величину. Каждую из величин X и Y называют составляющей (компонентой): обе величины X и Y, рассматриваемые одновременно, образуют систему двух случайных величин.

Аналогично n-мерную величину можно рассматривать как систему n случайных

величин. Например, любую точку на координатной плоскости XOY можно рассматривать как двумерную случайную величину с компонентами (координатами) X и Y; любую точку в трехмерном пространстве – как

трехмерную случайную величину с компонентами X, Y и Z. Различают дискретные (составляющие этих величин дискретны) и непрерывные (составляющие этих величин непрерывны) многомерные случайные величины.

Рассмотрим двумерную случайную величину (X, Y) (безразлично, дискретную или непрерывную). Пусть (x,y) – пара действительных чисел. Вероятность события, состоящего в том, что X примет значение, меньшее x, и при этом Y примет значение, меньшее y, обозначим через F(x,y). Если x и y будут изменяться, то, вообще говоря, будет изменяться и F(x,y), т. е. F(x,y) есть функция от x и y.

Функцией распределения двумерной случайной величины (X,Y) называют функцию F(x,y), определяющую для каждой пары чисел x, y вероятность того, что X примет значение, меньшее x, и при этом Y примет значение, меньшее y: F(x,y) = P(X

Геометрически это равенство можно истолковать так: F(x,y) есть вероятность того, что случайная точка (X,Y) попадет в бесконечный квадрант с вершиной (x, y), расположенной левее и ниже этой вершины.

Свойства функции распределения двумерной случайной величины

Свойство 1 . Значения функции распределения удовлетворяют двойному неравенству 0 ≤ F(x, y) ≤ 1.

Доказательство . Свойство вытекает из определения функции распределения как вероятности: вероятность – всегда неотрицательное число, не превышающее единицу.

Свойство 2 . F(x,y) есть неубывающая функция по каждому аргументу, т.е.

F(x2 ,y) ≥ F(x1 ,y), если x2> x1 ;

F(x ,y2) ≥ F(x ,y1), если y2> y1.

Доказательство . Докажем, что F(x,y) – неубывающая функция по аргументу x. Событие, состоящее в том, что составляющая X примет значение, меньшее x2, и при этом составляющая Y < y, можно подразделить на следующие два несовместных события:

1) X примет значение, меньшее x1 , и при этом Y < y с вероятностью P(X< x1,Y

2) X примет значение, удовлетворяющее неравенству x1 ≤ X < x2 , и при этом Y

По теореме сложения,

P(X< x2, Y

P(X< x2, Y

F(x2 ,y) - F(x1 ,y) = P(x1≤X< x2, Y

Любая вероятность есть число неотрицательное, поэтому

F(x2 ,y) - F(x1 ,y) ≥ 0, или F(x2 ,y) ≥ F(x1 ,y),

что и требовалось доказать.

Свойство становится наглядно ясным, если воспользоваться геометрическим истолкованием функции распределения как вероятности попадания случайной точки в бесконечный квадрант с вершиной (x;y). При возрастании x правая граница этого квадранта сдвигается вправо; при этом вероятность попадания

случайной точки в новый квадрант, очевидно, не может уменьшиться. Аналогично доказывается, что F(x,y) есть неубывающая функция по

аргументу y.

Свойство 3 . Имеют место предельные соотношения:

1) F(-∞ , y) = 0, 2) F(x, -∞) = 0,

3) F(-∞ , -∞) = 0, 4) F(∞ , ∞) = 1.

Доказательство

1) F(-∞ , y) есть вероятность события X < -∞ и Y < y; но такое событие невозможно (поскольку невозможно событие X < -∞), следовательно, вероятность этого события равна нулю. Свойство становится наглядно ясным, если прибегнуть к геометрической интерпретации: при x→-∞ правая граница бесконечного квадранта неограниченно сдвигается влево и при этом вероятность попадания случайной точки в квадрант стремится к нулю.

2) Событие Y < -∞ невозможно, поэтому F(x, -∞) = 0.

3) Событие X < -∞ невозможно, поэтому F(-∞ , -∞) = 0.

4) Событие X < ∞ и Y < ∞ достоверно, следовательно, вероятность этого

события F(∞ , ∞) = 1.

Свойство становится наглядно ясным, если принять во внимание, что при x→∞ и y→∞ бесконечный квадрант превращается во всю плоскость xOy и, следовательно, попадание случайной точки (X;Y) в эту плоскость есть достоверное событие.

Свойство 4

а) При y = ∞ функция распределения системы становится функцией распределения составляющей X:

F(x, ∞) = F1(x).

б) При x = ∞ функция распределения системы становится функцией распределения составляющей Y:

F(∞, y) = F2(y).

Доказательство.

а) Так как событие Y < ∞ достоверно, то F(x, ∞) определяет вероятность события X < x, т.е. представляет собой функцию распределения составляющей X.

б) Доказывается аналогично.