Случайные процессы в теории вероятности

Работа добавлена:



Если Вы нашли нужный Вам реферат или просто понравилась коллекция рефератов напишите о Нас в любой соц сети с помощью кнопок ниже





Случайные процессы в теории вероятности на http://mirrorref.ru

6Случайные процессы

6.1 Понятие случайного процесса

При изучении многих явлений природы приходится встречаться с процессами, течение которых заранее предсказать невозможно. Эта непредсказуемость вызвана влиянием случайных факторов, воздействующих на ход процесса. Примерами случайных процессов являются: траектории частиц в броуновском движении, траектория полета летательного аппарата, флуктуационные шумы в радиоэлектронной аппаратуре, изменение температуры больного в ходе болезни, вибрация узлов станка во время его работы и т. д.

Случайный процесс описывается случайной функцией времениx(t), мгновенные значения которой в любые моменты времени являются случайными величинами.

Случайной функциейX(t) называют функцию, которая в результате опыта может принять тот или иной вид, причем заранее неизвестно какой именно.

Случайная величинаX(t0), в которую обращается случайный процесс приt=t0, называется сечением случайного процесса, соответствующим данному значению аргументаt.

Конкретный вид, который принимает случайный процесс в результате опыта, называется реализацией случайного процесса.

Реализацией случайного процессаX(t)будем называть неслучайную функциюx(t),в которую превращается случайный процессX(t) в результате опыта.

Рисунок 6.1 – Реализации случайных процессов

Реализации случайного процесса могут иметь как непрерывную, так и дискретную структуру. По своей структуре все случайные процессы делят на четыре класса:

процессы с дискретными состояниями и с дискретным временем (рис.6.1а);

процессы с дискретными состояниями и с непрерывным временем (рис.6.1б);

процессы с непрерывными состояниями и  с дискретными временем (рис.6.1в);

процессы с непрерывными состояниями и  с  непрерывным временем (рис.6.1г).

В результате ряда опытов получают семейство реализаций  случайного процесса (Рис.6.2).

Рисунок 6.2 – Семейство реализаций случайного процесса

В каждом сечении, например, в некоторый фиксированный момент времени   случайный процесс  представляет собой обыкновенную случайную величину, которая принимает значения .

Поэтому случайный процесс можно трактовать как систему бесчисленного множества случайных величин.

6.2 Закон распределения случайного процесса

Под законом распределения случайного процесса понимают всякое соотношение, устанавливающее связь между реализацией случайного процесса и вероятностью ее появления.

Пусть  нас интересует реализация случайного процессаx(t), проходящая через точки (таблица 6.1).

Таблица 6.1

t

t0

t1

t2

ti

tn

x

x0

x0

x2

xi

xn

Функцияназываетсяn – мерной функцией распределения вероятностей случайного процесса и определяется как вероятность того, что случайный процессX(t) в моменты времени  примет значения меньшие соответственно , т.е.

.         (6.1)

Если функция  имеет смешанную частную производную по аргументам , т.е.

,                          (6.2)

то она называетсяn – мерной плотностью вероятности случайного процесса.

Эти функции в зависимости от числа сечений позволяют получить наиболее полное описание случайного процесса. Однако для решения многих инженерных задач достаточно знать одномерный или двумерный закон распределения случайного процесса, т.е.  или. Если эти законы имеют нормальное распределение, то и случайный процессX(t)  также называют нормальным.

6.3 Характеристики случайного процесса

Рассматривая случайный процесс как систему уже трех – четырех случайных величин возникают трудности в аналитическом выражении законов распределения случайного процесса. Поэтому в ряде случаев ограничиваются характеристиками случайного процесса, аналогичными числовым характеристикам случайных величин.

Характеристики случайного процесса в отличие от числовых характеристик случайных величин представляют собой неслучайные функции. Среди них для оценки случайного процесса широко применяются функции математического ожидания и дисперсии случайного процесса, а также корреляционная функция случайного процесса.

Математическим ожиданием случайного процессаX(t) называется неслучайная функция , которая при каждом значении аргументаt равна математическому ожиданию соответствующего сечения случайного процесса

.

Из определения математического ожидания случайного процесса вытекает, что если известна одномерная плотность вероятности , то

.                                                                                   (6.3)

Случайный процессX(t)всегда можно представить как сумму элементарных случайных функций

,                                                                                                   где  - элементарная случайная функция.

Тогда

.                                                                             (6.4)

Если задано множество реализаций случайного процессаX(t), то для графического представления математического ожидания  проводят ряд сечений и в каждом из них находят соответствующее математическое ожидание (среднее значение), а затем через эти точки проводят кривую (рис. 6.3).

Рисунок 6.3 – График функции математического ожидания

Чем больше проведено сечений, тем точнее будет построена кривая.

Математическое ожидание  случайного процесса есть некоторая неслучайная функция, около которой группируются реализации случайного процесса.

Если реализации случайного процесса представляют собой ток или напряжение, то математическое ожидание трактуют как среднее значение тока или напряжения.

Дисперсией случайного процессаX(t)называется неслучайная функция , которая при каждом значении аргументаt равна дисперсии соответствующего сечения случайного процесса.

.

Из определения дисперсии случайного процесса вытекает, что если известна одномерная плотность вероятности , то

или                                                                (6.5)

Если случайный процесс представляется в виде , то

.                                              (6.6)

Дисперсия случайного процесса характеризует разброс или рассеивание реализаций относительно функции математического ожидания.

Если реализации случайного процесса представляют собой ток или напряжение, то дисперсию  трактуют как разность между мощностью всего процесса и мощностью средней составляющей тока или напряжения в данном сечении, т.е.

.                                                                    (6.7)

В ряде случаев вместо дисперсии случайного процесса используется среднее квадратичное отклонение случайного процесса

.

Математическое ожидание и дисперсия случайного процесса  позволяют выявить вид средней функции, около которой группируются реализации случайного процесса, и оценить их разброс  относительно этой функции. Однако внутренняя структура случайного процесса, т.е. характер и степень зависимости (связи) различных сечений  процесса между собой, остается при этом неизвестной (рис. 6.4).

Рисунок 6.4 – Реализации случайных процессовX(t)иY(t)

Для характеристики связи  сечений случайного процесса вводится понятие смешанной моментной функции второго порядка -корреляционной функции.

Корреляционной функциейслучайного процессаX(t) называется неслучайная функция , которая при каждой паре значений  равна корреляционному моменту соответствующих сечений случайного процесса:

,                                                                                         где , .

Связь (см. рис. 6.4) между сечениями случайного процессаX(t) больше, чем между сечениями случайного процессаY(t), т.е.

.

Из определения следует, что если задана двумерная плотность вероятности  случайного процессаX(t), то

,                        (6.8)

или

.                             (6.9)

Корреляционная функция представляет собой совокупность корреляционных моментов двух случайных величин  в моменты , причем оба момента рассматриваются в любом сочетании всех текущих возможных значений аргументаt случайного процесса. Таким образом, корреляционная функция характеризует статистическую связь между мгновенными значениями в различные моменты времени.

Свойства корреляционной функции.

1) Если , то . Следовательно,  дисперсия  случайного процесса является частным случаем корреляционной функции.

2) Корреляционная функция симметрична относительно своих аргументов, т.е. .

3) Чем больше интервал между , тем корреляционная функция меньше.

4) Геометрически корреляционная функция представляет собой поверхность (рис.6.5).

Рисунок 6.5 – График корреляционной функции для часто встречающихся случайных процессов

Во многих случаях особенно при сравнении различных случайных процессов вместо корреляционной функции  рассматривают нормированную корреляционную функцию , которая определяется как отношение корреляционной функции к произведению функций средне квадратичных отклонений, т.е.

.

Нормированная корреляционная функция , также как и коэффициент корреляции двух случайных величин изменяется от -1 до +1, но не является постоянной, а зависит от аргументов .

6.4 Определение характеристик случайного процесса по опытным данным

Пусть над случайным процессомX(t) проведеноn опытов и полученоn реализаций (рис. 6.6).

Рисунок 6.6 –  Реализации случайного процессаX(t)

Требуется определить: оценку математического ожидания случайного процесса ; оценку дисперсии случайного процесса ; оценку корреляционной функции .

Значения, которые принимают реализации случайного процессаX(t), сведем в таблицу 6.2.

Таблица 6.2

x(t)     t

t1

t2

tk

tl

tm

x1(t)

x1(t1)

x1(t2)

x1(tk)

x1(tl)

x1(tm)

xi(t)

xi(t1)

xi(t2)

xi(tk)

xi(tl)

xi(tm)

xn(t)

xn(t1)

xn(t2)

xn(tk)

xn(tl)

xn(tm)

Оценки математического ожидания  в сечениях случайного процесса  находятся как средне – арифметические значения столбцов, т.е.

.

Оценки дисперсии  в сечениях случайного процесса  находятся как средне – арифметические значения квадратов центрированных значений столбцов, т.е.

.

Оценки корреляционного момента  в парах сечений определяются как средне – арифметические значения произведений центрированных значений столбцов  и , т.е.

.

По значениям оценок математического ожидания  в сечениях случайного процесса  строят график функции математического ожидания  случайного процесса (рис.6.3). Для определения степени статистической связи значений случайного процесса между собой и средней величины разброса их по оценкам корреляционного момента  составляют таблицу 6.3.

Таблица 6.3

t1

t2

tk

tl

tm

t1

t2

tk

tl

tm

При этом требуемая точность отображения функции математического ожидания и корреляционной функции может достигаться увеличением количества сеченийm.

6.5 Сложение случайных процессов

Пусть требуется найти характеристики случайного процессаZ(t), который является суммой случайных процессовX(t) иY(t), т.е.Z(t)=X(t)+Y(t), если известны их характеристики: .

На основании свойства математического ожидания имеем

,                                                                                         т.е.при сложении случайных процессов их функции математических ожиданий также складываются.

Аналогично при сложении любого числа случайных процессов функция математического ожидания суммы этих процессов будет равна сумме функций математических ожиданий этих случайных процессов, т.е.

.

Найдем корреляционную функцию , по определению

.

Отсюда

,

где    - взаимная корреляционная функция случайных процессовX(t) иY(t);

               -  взаимная корреляционная функция случайных процессовY(t) иX(t).

Взаимной корреляционной функцией случайных процессовX(t) иY(t) называют неслучайную функцию двух аргументов , которая для каждой пары аргументов равна корреляционному моменту между соответствующим сечением случайного процессаX(t) и соответствующим сечением случайного процессаY(t).

Корреляционную функцию  часто называют автокорреляционной функцией.

При сложении произвольного числа случайных процессов  корреляционная функция суммы случайных процессов будет равна сумме автокорреляционных функций плюс сумма взаимных корреляционных функций, т.е.

.

Если случайные процессы не коррелированны, то . Тогда

.

Сложение случайного процесса со случайной величиной.Пусть требуется найти характеристики случайного процессаZ(t), который является суммой случайного процессаX(t) и случайной величиныY, т.е.Z(t)=X(t)+Y, если известны их характеристики: .

В случае независимости случайного процессаX(t) и случайной величиныY функцию математического ожидания суммы можно определить по формуле .

6.6 Произведение случайной и неслучайной функций

Пусть требуется найти характеристики случайного процессаZ(t), который является произведением  случайной функцииX(t) инеслучайной функцииQ(t), т.е.Z(t)=Q(t)*X(t), если известны их характеристики: .

Используя свойство функции математического ожидания, можно записать, что функция математического ожидания произведения случайной функцииX(t) инеслучайной функцииQ(t) будет равна произведению неслучайной функцииQ(t) на функцию математического ожидания случайной функцииX(t), т.е.

.

На основе определения корреляционной функции случайного процесса можно записать, что

.

Откуда корреляционная функция произведения случайной инеслучайной функций будет равна произведению неслучайной функцииQ(t) в сечениях  на корреляционную функцию случайной функцииX(t), т.е.

.

6.7 Стационарные случайные процессы

На практике встречаются процессы, которые имеют вид непрерывных случайных колебаний относительно некоторого среднего значения. При этом средняя амплитуда и характер этих колебаний с течением времени существенно не изменяется; их реализации имеют примерно одинаковый характер. Такие процессы относят к стационарным случайным процессам.

Случайный процесс называют стационарным, еслиn-мерная плотность вероятности не меняется при любом сдвиге всей группы точеквдоль оси времени, т.е.

.                    (6.10)

Примерами таких процессов являются: шумы в приемнике после его включения; шумы ламп, полупроводниковых приборов, резисторов, колебания самолета на установившемся режиме полета, случайные ошибки автоматических систем относятся к стационарным случайным процессам (рис. 6.7).

Рисунок 6.7 – Реализации стационарного случайного процесса

К нестационарным случайным процессам обычно относят, например, шумы приемника при его включении, модулированные по амплитуде и частоте шумовые колебания, потребление электроэнергии в городе в течение суток и другие не установившиеся случайные процессы (рис. 6.8).

Рисунок 6.8 – Нестационарные случайные процессы

Случайный процессX(t), у которого вероятностные характеристики при любом  совпадают с соответствующими характеристиками случайного процесса , называют стационарным в узком (строгом) смысле.

Случайный процессX(t) называют стационарным, если  математическое ожидание является постоянным, а корреляционная функция зависит только от разности  аргументов, т.е. , а . Такой случайный процесс является  стационарным в широком смысле.

Из определения стационарности процесса вытекает, что среднее значение во всех сечениях процесса остается постоянным и не зависит от времени. Это значит, что оно является характеристикой не отдельных сечений, а процесса в целом. При этом математическое ожидание характеризует положение реализаций относительно оси абсцисс. Если оно равно нулю, то это означает, что отклонения в положительную и в отрицательную сторону в среднем одинаковы.

Корреляционная функция стационарного случайного процесса характеризуется следующими основными свойствами.

1 Дисперсия стационарного случайного процесса постоянна и равна значению корреляционной функции в начале координат, т.е.

.

2 Корреляционная функция стационарного случайного процесса является четной, т.е.

.

График корреляционной функции  геометрически представляет собой симметричную относительно оси ординат кривую. Часто в различных приложениях встречается показательная корреляционная функция (рис. 6.9).

.

Рисунок 6.9 – График показательной корреляционной функции

Нормированная корреляционная функция стационарного случайного процесса , представляет собой коэффициент корреляции, зависящий только от величины .

Эргодическое свойствостационарного случайного процесса. Для отыскания характеристик стационарного случайного процесса необходимо знать одномерную и двумерную плотности распределения этого процесса, или располагать достаточно большим числом реализаций процесса, чтобы с незначительной погрешностью определить значения характеристик.

Однако на практике, с одной стороны возникают существенные трудности в получении аналитических выражений одномерной и двумерной плотностей распределения стационарного случайного процесса, а с другой стороны исследователь, как правило, ограничен небольшим числом реализаций стационарного случайного процесса, в отдельных же случаях он не может получить более одной реализации процесса.

Возможность определения вероятностных характеристик по одной реализации стационарного случайного процесса достаточно большой продолжительности установил русский математик А. Я. Хинчин.

Случайный процесс называется эргодическим, если любая ее реализация несет в себе всю информацию о  случайном  процессе.

Рисунок 6.10 – Реализация стационарного случайного процесса

Эргодическое свойство имеют те стационарные случайные функции, которые не содержат в своем составе обыкновенную случайную величину.

Если стационарная случайная функцияX(t) обладает эргодическим свойством, то:

а) ее математическое ожидание  приближенно равно средней по времени ординате одной произвольно взятой реализации  достаточно большой продолжительности (рис. 6.10):

;                                                                                        (6.11)

б) значение корреляционной функции  при любом значении  приближенно равно произведению отклонения одной реализации  в точках, отстоящих друг от друга на величину , от математического ожидания  стационарной случайной функции

.                                                  (6.12)

Если , то  и

.                                                                             (6.13)

На практике формулами (6.11), (6.12) и (6.13) для определения приближенных характеристик не пользуются, так как аналитический вид реализации , как правило, неизвестен.

Поэтому интегралы (6.11), (6.12) и (6.13) заменяют конечными суммами, для чего реализацию  на промежутке  делят наn равных частей, длина каждого из которых равна . Тогда математическое ожидание, дисперсия и корреляционная функция будут определяться соответственно следующими выражениями:

,                                                                                   (6.14)

,                                                                        (6.15)

.                      (6.16)

Если выполняется равенство , то стационарная случайная функция называется эргодической по отношению к математическому ожиданию; если же справедливо равенство , то – эргодической по отношению к корреляционной функции.

Во многих случаях удобно пользоваться достаточным условием эргодичности случайной функции

.

Расчет корреляционной функции существенно облегчается, если применяется аппарат гармонического анализа, операции которого выполняются без затруднений, благодаря наличию подробных таблиц.

6.8 Спектральное разложение стационарной случайной функции

К случайным процессам классический гармонический анализ неприменим, так как случайная функция определяется не одной реализацией, а их семейством. Основная идея, дающая возможность применять ряды Фурье и интеграл Фурье к случайным процессам, состоит в усреднении спектральных разложений аналогично уже известному усреднению по времени. При этом спектральные разложения случайных процессов осуществляются не по отношению к «кривым мгновенных значений», а по отношению к кривым, представляющим собой квадраты мгновенных значений. Поэтому в этих разложениях отсутствует информация о фазах гармонических составляющих случайного процесса.

Спектральным разложением случайной функции называют представление ее в виде суммы бесконечного множества гармонических колебаний со случайными амплитудами и случайными фазами.

Если процессы периодические, то применяют ряды Фурье, если же апериодические – интеграл Фурье.

Спектральное разложение стационарной случайной функции на конечном промежутке времени.Пусть дана случайная функцияX(t) в промежутке [0,T] с математическим ожиданием  и корреляционной функцией, где . Требуется произвести спектр – разложение функцииX(t).

Задача будет решена в том случае, если стационарная случайная функцияX(t) может быть представлена в виде ряда Фурье

,                                                      (6.17)

         где  - математическое ожидание стационарной случайной функции (гармоника нулевой частоты);

       - некоррелированные случайные величины (случайные амплитуды гармоник с частотой ) с равными нулю математическими   ожиданиями и попарно равными дисперсиями.

В выражении (6.17) неизвестными величинами являются дисперсии амплитуд гармоник и их частоты.

Для отыскания дисперсий амплитуд гармоник поступают следующим образом. Поскольку дисперсия суммы некоррелированных случайных функций определяется как сумма их дисперсий, то дисперсия стационарной случайной функции (6.17), равная

,                                            (6.18)

также является суммой дисперсий гармоник со случайной амплитудой. Кроме того, дисперсия функцииX(t)равна значению корреляционной функции в начале координат .

Поэтому для получения дисперсий амплитуд каждой из гармоник  можно воспользоваться разложением корреляционной функции  в ряд Фурье.

При изменении  в промежутке [0,T] разность будет изменяться в промежутке [-T,T], где и следует рассматривать корреляционную функцию .

Рисунок 6.11 – Корреляционная функция

Так как корреляционная функция четна: , то ее график симметричен относительно оси ординат (рис. 6.11), то она может быть разложена в промежутке [-T,T] в ряд Фурье по косинусам:

,

где ; ;k=0,1,2,….

Коэффициенты  ряда Фурье определяются по формулам

.

Учитывая, что  - неслучайные величины, а потому и , и  также будут неслучайными функциями, то дисперсия функцииX(t) будет равна

,(6.19)

где  - дисперсия амплитудыk-той гармоники.

Следовательно, дисперсия стационарной случайной функции равна сумме дисперсий амплитуд гармоник ее спектрального разложения.

Рисунок 6.12 – Спектр дисперсии стационарной случайной функции

Распределение дисперсий по частотам можно представить в виде спектра дисперсии (энергетического спектра) случайной функции (рис.6.12). Спектральное разложение стационарной случайной функции на конечном промежутке времени представляет собой спектр дисперсии в виде отдельных дискретных значений, разделенных равными промежутками  (линейчатый спектр).

Дляспектрального разложения стационарной случайной функции на бесконечном промежутке временибудем рассматривать не дисперсию случайной амплитуды каждой гармоники, а среднюю плотность дисперсии, т.е. дисперсию, приходящуюся на единицу длины данного интервала частот . Обозначив расстояние между соседними частотами как , на каждом таком интервале частот построим прямоугольник площадью  (рис. 6.13).

Рисунок 6.13 – Диаграмма дисперсии

Площадь полученной ступенчатой фигуры (диаграммы) будет равна дисперсии стационарной случайной функции. Так как площадьk-го прямоугольника, прилежащего к точке , равна , то высота его будет

                                                                                                        и представляет собой среднюю плотность дисперсии на этом участке оси частот.

Неограниченно увеличивая интервал времениT, расстояние между соседними частотами  будет неограниченно приближаться к нулю, а ступенчатая кривая – к некоторой плавной кривой , изображающей плотность распределения дисперсий по частотам непрерывного спектра (рис.6.14).

Рисунок 6.14 – График спектральной плотности стационарной случайной функции

Спектральной плотностьюстационарной случайной функции называют предел отношения дисперсии, приходящейся на данный интервал частот, к длине интервала, когда она стремится к нулю, т.е.

.

Из определения спектральной плотности стационарной случайной функции следует, что площадь, ограниченная кривой  и осью абсцисс, численно равна дисперсии  этой функции, поэтому

.                                                                                   (6.20)

Спектральная плотность  представляет собой зависимость дисперсии случайного процесса от частоты, поэтому ее можно трактовать как количество мощности случайного процесса, приходящуюся на единицу частоты.

Зная корреляционную функцию стационарной случайной функцииX(t), с помощью прямого  преобразования Фурье можно найти ее спектральную плотность:

;

,                                                                                       и наоборот, зная  , с помощью обратного преобразования Фурье можно определить корреляционную функцию :

;

.

В последних формулах условное распространение области частот на отрицательные значения позволяет придать этой связи симметрию.

Понятие белого шума. Случайный процессX(t) считают узкополосным, если ширина полосы спектра , занимаемого им, намного меньше частоты , т.е., если . В противном случае процессX(t)относят к широкополосному случайному процессу.

В теории случайных процессов большое значение имеют стационарные процессы, спектральная плотность которых постоянна в широком диапазоне частот, т.е. близка к так называемому «белому шуму».

Белым шумом называют стационарный случайный процесс с нулевым математическим ожиданием и постоянной спектральной плотностью для всех частот от нуля до бесконечности, т.е.

и .

Число  называют интенсивностью белого шума.

Дисперсия белого шума будет равна

.

Для этого белый шум имеет бесконечную энергию, что является причиной его физической неосуществимости. Однако белый шум является удобной математической моделью в теоретических исследованиях, поскольку любая физическая система, имея ограниченную полосу пропускания, не реагирует на гармонические колебания, лежащие вне полосы пропускания. Следовательно, всякая стационарная случайная функция может считаться белым шумом, если ее спектральная плотность остается приблизительно постоянной в пределах полосы пропускания системы.

Кроме того, корреляционная функция белого шума равна

.

На основании свойства - функции окончательно запишем, что , если  и , если .

Таким образом, для белого шума отсутствует корреляция в два различных момента времени, т.е. отсутствует связь между любыми двумя различными сечениями случайного процесса.

6.9 Понятие о марковских случайных процессах

Потоком событийназывают последовательность однородных событий, появляющихся одно за другим в случайные моменты времени. Примеры: поток вызовов на телефонной станции; поток сбоев ЭВМ; поток заявок на проведение расчетов в вычислительном центре и т.п.

Поток событий наглядно изображается рядом точек с абсциссамиQ1,Q2,...,Qn, ... (рис. 6.15) с интервалами между ними:Т1 =Q2 -Q1,T2 =Q3 -Q2, ...,Тп =Qn+1 -Qn. При его вероятностном описании поток событий может быть представлен как последовательность случайных величин:

Q1; Q2 = Q1 + T1; Q3 = Q1 + T1 + T2;ит.д.

На рисунке в виде ряда точек  изображен не сам поток событий (он случаен), а только одна  его конкретная реализация.

Поток событий называетсястационарным,если его вероятностные характеристики не зависят от выбора начала отсчета или, более конкретно, если вероятность попадания того или другого числа событий на любой интервал времени зависит только от длины  этого интервала и не зависит от того, где именно на оси0-t он расположен.

Рисунок 6.15 – Реализация потока событий

Поток событий называетсяординарным,если вероятность попадания на элементарный интервал временидвух или более событий пренебрежимо мала по    сравнению с вероятностью попадания одного события.

Рисунок 6.16 – Поток событий как случайный процесс

Ординарный поток событий можно интерпретировать как случайный процессХ(t) -число событий, появившихся до моментаt(рис. 6.16). Случайный процессХ(t)скачкообразно возрастает на одну единицу в точкахQ,Q2 ,...,Qn.

Поток событий называетсяпотоком без последействия,если число событий, попадающих на любой интервал времени , не зависит от того, сколько событий попало на любой другой не пересекающийся с ним интервал. Практически отсутствие последействия в потоке означает, что события, образующие поток, появляются в те или другие моменты времени независимо друг от друга.

Поток событий называетсяпростейшим,если он стационарен, ординарен и не имеет последействия. Интервал времениT между двумя соседними событиями простейшего  потока имеет показательное распределение

(приt>0);                                                            (6.21)

где /М [Т]-величина, обратная среднему значению интервалаТ.

Ординарный поток событий без последействия называетсяпуассоновским.Простейший поток является частным случаем стационарного пуассоновского потока.Интенсивностьюпотока событий называется среднее число событий, приходящееся на единицу времени. Для стационарного потока ; для нестационарного потока она в общем случае зависит от времени: .

Марковские случайные процессы. Случайный процесс называютмарковским, если он обладает следующим свойством:для любого момента времениt0вероятность любого состояния системы в  будущем(приt >t0)зависит только от ее состояния в настоящем(приt =t0)и не зависит от того, каким образом система пришла в это состояние.

      В данной главе будем рассматривать только марковские процессыc дискретными состояниямиS1,S2, ...,Sn. Такие процессы удобно иллюстрировать с помощью графа состояний (рис. 5.4), где прямоугольниками (или кружками) обозначены состоянияS1,S2,  …      системыS, а стрелками — возможные переходы из состояния в состояние (на графе отмечаются только непосредственные переходы, а не переходы через другие состояния).

Рисунок 5.4 – Граф состояний случайного процесса

Иногда на графе состояний отмечают не только возможные переходы из состояния в состояние, но  и возможные задержки в прежнем состоянии; это изображается стрелкой («петлей»), направленной из данного состояния в него же, но можно обходиться и без этого. Число состояний системы может быть как конечным, так и бесконечным  (но счетным).

Марковский случайный процесс с дискретными состояниями и дискретным временемобычно называютмарковской цепью.Для такого процесса моментыt1,t2 ..., когда системаS может менять свое состояние, удобно рассматривать как последовательные шаги процесса, а в качестве аргумента, от которого зависит процесс, рассматривать не времяt,а номер шага:1, 2, . . .,k;…. Случайный процесс в этом случае характеризуется последовательностью состояний

,(5.6)

еслиS(0) — начальное состояние системы (перед первым шагом);S(1) — состояние системы непосредственно после первого шага; ...;S(k) — состояние системы непосредственно послеk-го шага ....

СобытиеSi,,(i= 1,2,...) является случайным событием, поэтому последовательность состояний (5.6) можно рассматривать как последовательность случайных событий. Начальное состояниеS(0) может быть как заданным заранее, так и случайным.  О событиях последовательности (5.6) говорят, что они образуют марковскую цепь.

Рассмотрим процесс сn возможными состояниямиS1,S2, ...,Sn. Если обозначить черезХ(t)номер состояния, в котором находится системаS в моментt,то процесс описывается целочисленной случайной функциейХ(t)>0, возможные значения которой равны1, 2,...,n. Эта функция совершает скачки от одного целочисленного значения к другому в заданные моментыt1,t2,... (рис. 5.5) и является непрерывной слева, что отмечено точками на рис. 5.5.

Рисунок 5.5 – График случайного процесса

Рассмотрим одномерный закон распределения случайной функции Х(t). Обозначим через  вероятность того, что послеk-го шага [и до (k+1)-го] системаS будет в состоянииSi (i=1,2,...,n). Вероятностирi(k) называютсявероятностями состоянийцепи Маркова. Очевидно, для любогоk

         .          (5.7)

Распределение вероятностей состояний в начале процесса

p1(0) ,p2(0),…,pi(0),…,pn(0)(5.8)

называетсяначальным распределением вероятностеймарковской цепи. В частности, если начальное состояниеS(0)системыS в точности известно, напримерS(0)=Si, то начальная вероятностьPi(0) = 1, а все остальные равны нулю.

Вероятностью переходанаk-м шаге из состоянияSi в состояниеSjназывается условная вероятность того, что система послеk-го шага окажется в состоянииSjпри условии, что непосредственно перед этим (послеk - 1 шагов) она находилась в состоянииSi. Вероятности перехода иногда называются также «переходными вероятностями».

Марковская цепь называетсяоднородной,если переходные вероятности не зависят от номера шага, а зависят только от того, из какого состояния и в какое осуществляется переход:

    (5.9)

Переходные вероятности однородной марковской цепиРijобразуют квадратную таблицу (матрицу) размеромn*n:

(5.10)

           .                               (5.11)

Матрицу, обладающую таким свойством, называютстохастической.ВероятностьРij есть не что иное, как вероятность того, что система, пришедшая к данному шагу в состояниеSj, в нем же и задержится на очередном шаге.

Если для однородной цепи Маркова заданы начальное распределение вероятностей (5.8) и матрица переходных вероятностей (5.10), то вероятности состояний системы  могут быть определены по рекуррентной формуле

(5.12)

Для неоднородной цепи Маркова вероятности перехода в матрице (5.10) и формуле (5.12) зависят от номера шагаk.

Для однородной цепи Маркова, если все состояния являются существенными, а число состояний конечно, существует предел определяемый   из   системы уравнений  и  Сумма переходных вероятностей в любой строке матрицы равна единице.

При фактических вычислениях  по формуле (5.12) надо в ней учитывать не все состоянияSj, а только те, для которых переходные вероятности отличны от нуля, т.е. те, из которых на графе состояний ведут стрелки в состояниеSi.

Марковский случайный процесс с дискретными состояниями и непрерывным временем иногда называют «непрерывной цепью Маркова». Для такого процесса вероятность перехода из состоянияSi вSj для любого момента времени равна нулю. Вместо вероятности переходаpijрассматриваютплотность вероятности переходакоторая определяется как предел отношения вероятности перехода из состоянияSi в состояниеSj за малый промежуток времени , примыкающий к моментуt,к длине этого промежутка, когда она стремится к нулю. Плотность вероятности перехода может быть как постоянной (), так и зависящей от времени []. В первом случае марковский случайный процесс с дискретными состояниями и непрерывным временем называетсяоднородным.Типичный пример такого процесса - случайный процессХ(t),представляющий собой число появившихся до моментаtсобытий в простейшем потоке ( рис. 5.2).

При рассмотрении случайных процессов с дискретными состояниями и непрерывным временем удобно представлять  переходы системыS из состояния в состояние как происходящие под влиянием некоторых потоков событий. При этом плотности  вероятностей перехода получают  смысл интенсивностей  соответствующих потоков событий (как только происходит первое событие в потоке с интенсивностью , система из состоянияSi скачком переходит вSj). Если все эти потоки пуассоновские, то процесс, протекающий в системеS, будет марковским.

Рассматривая марковские случайные процессы с дискретными состояниями и непрерывным временем, удобно пользоваться графом состояний, на котором против каждой стрелки, ведущей из состоянияSi ,вSj проставлена интенсивность  потока событий, переводящего систему по данной стрелке (рис.5.6). Такой граф состояний называютразмеченным.

Вероятность того, что системаS, находящаяся в состоянииSi, за элементарный промежуток времени () перейдет в состояниеSj (элемент вероятности перехода изSi вSj), есть вероятность того, что за это времяdtпоявится хотя бы одно событие потока, переводящего системуSизSi вSj.С точностью до бесконечно малых высших порядков эта вероятность равна.

Потоком вероятности переходаиз состоянияSi вSjназывается величина  (здесь интенсивность  может быть как зависящей, так и независящей от времени).

Рассмотрим случай, когда системаS имеет конечное число состоянийS1,S2,...,Sп.Для описания случайного процесса, протекающего в этой системе, применяются вероятности состояний

(5.13)

гдерi (t) —вероятность того, что системаSв моментtнаходится в состоянииSi:

                                            .(5.14)

Очевидно, для любогоt

                                                 .                                  (5.15)

Для нахождения вероятностей (5.13) нужно решить систему дифференциальных уравнений (уравнений Колмогорова), имеющих вид

                                        (i=1,2,…,n),

или, опуская аргументtу переменныхрi,

(i=1,2,…,n). (5.16)

Напомним, что интенсивности потоковij могут зависеть от времени.

Уравнения (5.16) удобно составлять, пользуясь размеченным графом состояний системы и следующим мнемоническим правилом:производная вероятности каждого состояния равна сумме всех потоков вероятности, переводящих из других состояний в данное, минус сумма всех потоков вероятности, переводящих из данного состояния в другие.Например, для системыS,размеченный граф состояний которой дан на рис. 10.6, система уравнений Колмогорова имеет вид

                                             (5.17)

Так как для любогоtвыполняется условие (5.15), можно любую из вероятностей (5.13) выразить через остальные и таким образом уменьшитьчисло уравнений на одно.

Чтобы решить систему дифференциальных уравнений (5.16) для вероятностей состоянийр1(t)p2(t),…,pn(t), нужно задать начальное распределение вероятностей

p1(0),p2(0), …,pi(0), …,pn(0),                     (5.18)

сумма которых равна единице.

Если, в частности, в начальный моментt= 0 состояние системыS в точности известно, например,S(0) =Si , ирi (0) = 1, то остальные вероятноcти выражения (5.18) равны нулю.

Во многих случаях, когда процесс, протекающий в системе, длится достаточно долго, возникает вопрос о предельном поведении вероятностейрi(t) при . Если все потоки событий, переводящие систему из состояния в состояние, являются простейшими (т.е. стационарными пуассоновскими с постоянными интенсивностями ), в некоторых случаях существуютфинальные(или предельные)вероятности состояний

          ,                           (5.19)

независящие от того, в каком состоянии системаS находилась в начальный момент. Это означает, что с течением времени в системеS устанавливаетсяпредельный стационарный режим,в ходе которого она переходит из состояния в состояние, но вероятности состояний уже не меняются. В этом предельном режиме каждая финальная вероятность может быть истолкованакак среднее относительное времяпребывания системы в данном состоянии.

Систему, в которой существуют финальные вероятности, называютэргодической.Если системаS имеет конечное число состоянийS1 ,S2 , . . . ,Sn, то для существования финальных вероятностейдостаточно,чтобыиз любого состояния системы можно было(за какое-то число шагов)перейти в любое другое.Если число состоянийS1 ,S2 , . . . ,Sn, бесконечно, то это условие перестает быть достаточным, и существование финальных вероятностей зависит не только от графа состояний, но и от интенсивностей .

Финальные вероятности состояний (если они существуют) могут быть получены решениемсистемы линейных алгебраических уравнений,они получаются из дифференциальных уравнений Колмогорова, если положить в них левые части  (производные) равными нулю. Однако удобнее составлять эти уравнения непосредственно по графу состояний, пользуясь мнемоническим правилом:для каждого состояния суммарный выходящий поток вероятности равен суммарному входящему.Например, для системыS, размеченный граф состояний которой дан на рис. 5.7, уравнения для финальных вероятностей состояний имеют вид

                       (5.20)

Таким образом, получается (для системыS с псостояниями) системаn однородных линейных алгебраических уравнений сn неизвестнымир1, р2, ...,рп.Из этой системы можно найти неизвестныер1,р2, . . . ,рп сточностью до произвольного множителя. Чтобы найти точные значенияр1,...,рп,к уравнениям добавляютнормировочное условиеp1 +p2+ …+pп=1, пользуясь которым можно выразить любую из вероятностейpiчерез другие (и соответственно отбросить одно из уравнений).

Вопросы для повторения

1 Что называют случайной функцией, случайным процессом, сечением случайного процесса, его реализацией?

2 Как различаются случайные процессы по своей структуре и характеру протекания во времени?

3 Какие законы распределения случайной функции применяют для описания случайной функции?

4 Что представляет собой функция математического ожидания случайной функции, в чем ее геометрический смысл?

5 Что представляет собой функция дисперсии случайной функции, в чем ее геометрический смысл?

6 Что представляет собой корреляционная функция случайного процесса, и что она характеризует?

7 Каковы свойства корреляционной функции случайного процесса?

8 Для чего введено понятие нормированной корреляционной функции?

9 Объясните как по опытным данным получить оценки функций характеристик случайного процесса?

10 В чем отличие взаимной корреляционной функции от автокорреляционной функции?

11 Какой случайный процесс относят к стационарным процессам в узком смысле и в широком?

12 В чем заключается свойство эргодичности стационарного случайного процесса?

13 Что понимают под спектральным разложением стационарного случайного процесса и в чем его необходимость?

14 Какова связь между корреляционной функцией и спектральной плотностью  стационарной случайной функции?

15 Что называют простейшим потоком событий?

16 Какой случайный процесс называют марковской цепью? В чем заключается методика расчета ее состояний?

17 Что представляет собой марковский случайный процесс с дискретными состояниями и непрерывным временем?

Упражнения

6.1 Случайная функция , гдеU – случайная величина, возможные значения которой принадлежат интервалу (0,10). Найти реализации функцииX(t) в двух испытаниях, в которых величинаU приняла значения: .

6.2 Случайная функция , гдеU – случайная величина. Найти сеченияX(t), соответствующие фиксированным значениям аргумента: .

6.3 Найти математическое ожидание случайной функции:, гдеU иV – случайные величины, причемM(U)=M(V)=1.

6.4 Найти: а) математическое ожидание; б) корреляционную функцию; в) дисперсию случайной функции , гдеU – случайная величина, причемM(U)=10,D(U)=0.2.

6.5 Найти нормированную взаимную корреляционную функцию случайных функцийX(t)=t*U иY(t)=(t+1)U, гдеU – случайная величина, причем дисперсияD(U)=10.

Список использованных источников

1Вентцель Е. С. Теория вероятностей: Учебник для вузов. – М.: Высшая школа, 2001.

2Вентцель Е. С.,Теория случайных процессов и ее инженерные приложения /Е. С. Вентцель, Л. А. Овчаров – М.: Академия, 2003.

3Гмурман В.Е.Теория вероятностей и математическая статистика: Учеб. Пособие для вузов. – М.: Высшая школа, 2001.-479 с.

4Гмурман В. Е.  Руководство к решению задач по теории вероятностей и математической статистике: Учеб. Пособие для вузов. – М.:  Высшая школа, 2003 – 440 с.

5Пугачев В.С. Теория вероятностей и математическая статистика: Учеб. пособие для вузов. – М.: Издательство Ф-М литературы, 2002.

6 Теория вероятностей: Учебник для вузов / Под ред.В.С. Зарубина, А.П. Крищенко – М.: Изд-во МГТУ им. Н.Э. Баумана, 2004.

7Гнеденко Б.В. Курс теории вероятностей. Учебное пособие. -  Киев: Наукова думка, 1981 - 497 с.

8Мирский Г.Я. Аппаратурное определение характеристик случайных процессов.- М.: Энергия, 1972 - 455 с.

9Цветков Э.И. Основы статистических измерений. - Л.: Энергия, 1979 - 288 с.

10Бендат Дж., Пирсол А. Измерение и анализ случайных процессов. -М.: Мир, 1974 - 376 с.

Содержание

Стр.

Введение……………………………………………………………………

Раздел 1Случайные события…………………………………………….

1.1 Способы определения вероятностей событий……………..

1.1.1 Основные понятия…………………………………………………..

1.1.2 Непосредственный подсчет вероятностей событий………………

1.1.3 Статистический способ определения вероятностей………………

1.1.4 Геометрический способ определения вероятностей………………

1.2 Теоремы сложения и умножения вероятностей……………………..

1.2.1 Алгебра событий…………………………………………………….

1.2.2 Теорема сложения вероятностей для совместных событий………

1.2.3 Зависимые и независимые события…………………………………

1.2.4 Теорема умножения вероятностей………………………………….

1.3 Формула полной вероятности…………………………………………

1.4 Теорема гипотез (формула Байеса)……………………………………

1.5 Повторение испытаний…………………………………………………

Вопросы для повторения и упражнения…………………………………..

Раздел 2 Случайные величины…………………………………………….

2.1 Понятие случайной величины…………………………………………

2.2 Законы распределения случайных величин…………………………..

2.3 Плотность распределения случайной непрерывной величины……...

2.4 Числовые характеристики случайных величин………………………

2.4.1 Математическое ожидание случайной величины………………….

2.4.2 Дисперсия случайной величины…………………………………….

2.4.3 Начальные и центральные моменты………………………………...

2.5 Закон равномерной плотности…………………………………………

2.6 Нормальный закон распределения…………………………………….

2.7 Распределение Пуассона……………………………………………….

2.8 Экспоненциальное распределение…………………………………….

Вопросы для повторения и упражнения…………………………………..

Раздел 3 Системы случайных величин……………………………………

3.1 Понятие системы случайных величин………………………………...

3.2 Функция распределения системы двух случайных величин………...

3.3 Плотность распределения системы двух случайных величин………

3.4 Законы распределения отдельных случайных величин,

     входящих в систему……………………………………………………

3.5 Закон распределения системы случайных дискретных величин……

3.6 Условные законы распределения случайных величин………………

3.7 Зависимые и независимые случайные величины…………………….

3.8 Числовые характеристики системы двух случайных величин………

Вопросы для повторения и упражнения………………………………….

Раздел 4 Функции случайных аргументов………………………………..

4.1 Математическое ожидание суммы случайных величин…………….

4.2 Дисперсия суммы случайных величин………………………………..

4.3 Закон распределения суммы двух случайных величин……………...

Вопросы для повторения и упражнения………………………………….

Раздел 5 Основы математической статистики……………………………

5.1 Закон больших чисел…………………………………………………..

5.2 Обработка результатов измерений……………………………………

5.2.1 Выборка, закон распределения выборки……………………………

5.2.2 Статистические оценки параметров распределения………………

5.2.3 Точность и надежность статистической оценки…………………..

Вопросы для повторения и упражнения…………………………………

6Случайные процессы…………………………………………………….

6.1 Понятие случайного процесса………………………………………...

6.2 Закон распределения случайного процесса………………………….

6.3 Характеристики случайного процесса……………………………….

6.4 Определение характеристик случайного процесса по опытным

     данным…………………………………………………………………

6.5 Сложение случайных процессов……………………………………..

6.6 Произведение случайной и неслучайной функций…………………

6.7 Стационарные случайные процессы…………………………………

6.8 Спектральное разложение стационарной случайной функции……

6.9 Понятие о марковских случайных процессах………………………

Вопросы для повторения и упражнения…………………………………

Список использованных источников……………………………………

Случайные процессы в теории вероятности на http://mirrorref.ru


Похожие рефераты, которые будут Вам интерестны.

1. Случайные события в теории вероятности

2. Случайные величины в теории вероятности

3. Вопросы по теории вероятности

4. Сопоставление функции плотности вероятности ряду котировок валютного курса. Эволюция функции плотности вероятности процесса через оператора Фредгольма

5. Случайные величины

6. Условные вероятности

7. Теория вероятности

8. Теория вероятности задачи

9. Классическое определение вероятности

10. Теория вероятности контрольная работа