Материал: 6251

Внимание! Если размещение файла нарушает Ваши авторские права, то обязательно сообщите нам

Одной из таких характеристик является одномерная плотность вероятности p1(x1,t1). Произведение p1(x1,t1)dx1 есть вероятность того, что в момент времени t1 выполняется неравенство x1 x < x1 + dx1 . Одномерная плотность вероятности зависит от времени, то есть в разные моменты времени закон распределения случайной величины, вообще говоря, может быть различным.

Одномерная плотность вероятности не может характеризовать связь между значениями стохастического процесса в разные моменты времени. Для такой характеристики можно ввести двумерную плотность вероятности p2 (x1,t1;x2,t2 ). Тогда величина p2 (x1,t1;x2,t2 )dx1dx2 представляет собой вероятность того, что в момент времени t1 случайная величина x

попадёт в интервал x1 x < x1 + dx1 , а в момент времени t2 – в интервал x2 x < x2 + dx2 . Но и это ещё не полная характеристика случайного процесса. Продолжая подобные рассуждения, введём n-мерную плотность вероятности pn (x1,t1; x2,t2;...;xn ,tn ). Максимально полную информацию о стохастическом процессе мы будем иметь, если знаем все n-мерные плотности вероятности для любого n.

Однако существуют случайные процессы, для полной характеристики которых вовсе необязательно знать все многомерные плотности вероятности. Самый простой пример такого процесса – чисто случайный процесс, когда случайные величины для разных моментов времени являются независимыми. В этом случае все n-мерные плотности вероятности представляются произведением одномерных плотностей

pn (x1,t1;x2,t2;...;xn ,tn )= p1(x1,t1) p1(x2,t2 ) ... p1(xn,tn ).

151

Другой пример – так называемые марковские процессы, для которых все плотности вероятности получаются из двумерной плотности p2 (x1,t1;x2,t2 ). Марковские случайные процессы рассматриваются, как правило, в дискретном времени, и тогда поведение процесса в следующий момент времени зависит только от значения случайной величины в предшествующий момент и не зависит от того, какова была предыстория процесса.

Стохастические процессы можно поделить на стационарные и нестационарные. Стохастический процесс называется стационарным (в узком смысле), если все n-мерные плотности вероятности не зависят от одинакового сдвига τ всех точек t1, t2,…, tn по временно́й оси, то есть выполняется равенство

pn (x1,t1;x2,t2;...;xn,tn )= pn (x1,t1 + τ;x2,t2 + τ;...;xn ,tn + τ).

(3.1.7)

Статистические характеристики стационарного стохастического процесса не меняются во времени. Стационарный процесс в известном смысле является аналогом установившегося процесса. Любой переходной процесс не является стационарным.

Из равенства (3.1.7) в частности следует, что одномерная плотность вероятности стационарного процесса не зависит от времени

p1(x1,t1) = p1(x1,t1 + τ) = p1(x1) ,

(3.1.8)

а двумерная плотность вероятности зависит только от разности моментов времени t2 t1

152

p2(x1,t1;x2,t2 )= p2(x1,t1 + τ; x2,t2 + τ)= p2 (x1, x2,t2 t1).

(3.1.9)

Если есть два случайных процесса x(t) и y(t), то для оценки их статистической взаимосвязи можно применять плотности совместных вероятностей значений процесса x(t) x1, x2,...xn и процесса y(t) y1, y2,...,yn в

различные моменты времени t1,t2,...,tn . Если все такие функции не зависят от одинакового сдвига во времени, эти процессы называются стационарно связанными.

Для описания стохастических процессов используют те же средства, что и для случайных величин. Математическое ожидание вычисляется по формуле (3.1.4), но теперь оно в общем случае является функцией времени

mx (t)= M (x(t))= x(t)p1(x,t)dx .

(3.1.10)

−∞

 

Для стационарных процессов математическое ожидание (3.1.10) не зависит от времени и является константой, поскольку плотность вероятности p1 , входящая в подынтегральное выражение правой части (3.1.10) согласно (3.1.8) не зависит от времени t

mx = M(x(t))= x(t)p1(x)dx .

(3.1.11)

−∞

 

Связь значений стохастического процесса для двух разных моментов времени может быть охарактеризована корреляционной (или, точнее, автокорреляционной) функцией

153

Kx (t1,t2 )= M (x(t1 ) x(t2 ))=

x1x2 p2 (x1,t1; x2 ,t2 )dx1dx2 . (3.1.12)

−∞

−∞

В выражении (3.1.12) использованы обозначения x(t1)= x1 иx(t2 )= x2 . Если в формуле (3.1.12) положить t1 =t2 =t , получим средний квадрат

M (x2 (t))= Kx (t,t)= x2 (t)p1(x,t)dx .

(3.1.13)

−∞

 

 

Для центрированного случайного

процесса

x (t)= x(t)mx (t)

средний квадрат совпадает с дисперсией, то есть

 

M (x 2 (t))= Dx (t)= (x(t)mx (t))2 p1(x,t)dx =

−∞

 

(3.1.14)

 

 

 

= x2 p1(x,t)dx mx2 (t)= Kx

(t,t)mx2 (t).

 

−∞

Мерой статистической взаимосвязи двух стохастических процессов x(t) и y(t) является взаимная корреляционная функция

Kxy (t1,t2 )=

x(t1 )y(t2 )p2 (x,t1; y,t2 )dxdy ,

(3.1.15)

−∞

−∞

 

где p2(x,t1; y,t2 ) двумерная совместная плотность распределения процессов x(t) и y(t) в моменты времени t1 и t2.

Иногда используют нормированные корреляционные функции нормированную автокорреляционную функцию

154

ρx

(t1

,t2 )=

 

 

Kx (t1,t2 )

 

 

 

 

Kx

(t1,t1 )Kx (t2 ,t2 )

 

 

 

 

и нормированную взаимную корреляционную функцию

ρxy

(t1

,t2 )=

 

 

Kxy

(t1

,t2 )

.

 

 

 

 

 

Kx

(t1,t1)Ky (t2 ,t2 )

 

 

 

 

 

Смысл введения нормированных функций в том, что, как нетрудно показать, их величина не превышает единицы ρx (t1,t2 )1, ρxy (t1,t2 )1 и

является безразмерной величиной.

Для стационарных процессов корреляционная функция зависит не от

двух моментов времени t1 и t2, а от их разности τ = t2 t1

 

 

Kx (t1,t2 )= Kx (t2 t1 )= Kx (τ)=

x1x2 p2

(x1, x2 , τ)dx1dx2 ,

(3.1.16)

−∞

−∞

 

 

а дисперсия является константой

 

 

 

 

 

 

Dx = Kx (0)mx2 = x2 p1(x)dx mx2 .

(3.1.17)

−∞

Если два процесса x(t)и y(t) являются стационарными и при этом стационарно связанными, их взаимная корреляционная функция зависит только от τ = t2 t1

Kxy (τ)= M(x(t1 )y(t1 + τ))=

x y p(x, y,τ)dxdy .

−∞ −∞

155