Одной из таких характеристик является одномерная плотность вероятности p1(x1,t1). Произведение p1(x1,t1)dx1 есть вероятность того, что в момент времени t1 выполняется неравенство x1 ≤ x < x1 + dx1 . Одномерная плотность вероятности зависит от времени, то есть в разные моменты времени закон распределения случайной величины, вообще говоря, может быть различным.
Одномерная плотность вероятности не может характеризовать связь между значениями стохастического процесса в разные моменты времени. Для такой характеристики можно ввести двумерную плотность вероятности p2 (x1,t1;x2,t2 ). Тогда величина p2 (x1,t1;x2,t2 )dx1dx2 представляет собой вероятность того, что в момент времени t1 случайная величина x
попадёт в интервал x1 ≤ x < x1 + dx1 , а в момент времени t2 – в интервал x2 ≤ x < x2 + dx2 . Но и это ещё не полная характеристика случайного процесса. Продолжая подобные рассуждения, введём n-мерную плотность вероятности pn (x1,t1; x2,t2;...;xn ,tn ). Максимально полную информацию о стохастическом процессе мы будем иметь, если знаем все n-мерные плотности вероятности для любого n.
Однако существуют случайные процессы, для полной характеристики которых вовсе необязательно знать все многомерные плотности вероятности. Самый простой пример такого процесса – чисто случайный процесс, когда случайные величины для разных моментов времени являются независимыми. В этом случае все n-мерные плотности вероятности представляются произведением одномерных плотностей
pn (x1,t1;x2,t2;...;xn ,tn )= p1(x1,t1) p1(x2,t2 ) ... p1(xn,tn ).
151
Другой пример – так называемые марковские процессы, для которых все плотности вероятности получаются из двумерной плотности p2 (x1,t1;x2,t2 ). Марковские случайные процессы рассматриваются, как правило, в дискретном времени, и тогда поведение процесса в следующий момент времени зависит только от значения случайной величины в предшествующий момент и не зависит от того, какова была предыстория процесса.
Стохастические процессы можно поделить на стационарные и нестационарные. Стохастический процесс называется стационарным (в узком смысле), если все n-мерные плотности вероятности не зависят от одинакового сдвига τ всех точек t1, t2,…, tn по временно́й оси, то есть выполняется равенство
pn (x1,t1;x2,t2;...;xn,tn )= pn (x1,t1 + τ;x2,t2 + τ;...;xn ,tn + τ). |
(3.1.7) |
Статистические характеристики стационарного стохастического процесса не меняются во времени. Стационарный процесс в известном смысле является аналогом установившегося процесса. Любой переходной процесс не является стационарным.
Из равенства (3.1.7) в частности следует, что одномерная плотность вероятности стационарного процесса не зависит от времени
p1(x1,t1) = p1(x1,t1 + τ) = p1(x1) , |
(3.1.8) |
а двумерная плотность вероятности зависит только от разности моментов времени t2 − t1
152
p2(x1,t1;x2,t2 )= p2(x1,t1 + τ; x2,t2 + τ)= p2 (x1, x2,t2 − t1). |
(3.1.9) |
Если есть два случайных процесса x(t) и y(t), то для оценки их статистической взаимосвязи можно применять плотности совместных вероятностей значений процесса x(t) − x1, x2,...xn и процесса y(t) − y1, y2,...,yn в
различные моменты времени t1,t2,...,tn . Если все такие функции не зависят от одинакового сдвига во времени, эти процессы называются стационарно связанными.
Для описания стохастических процессов используют те же средства, что и для случайных величин. Математическое ожидание вычисляется по формуле (3.1.4), но теперь оно в общем случае является функцией времени
mx (t)= M (x(t))= ∞∫ x(t)p1(x,t)dx . |
(3.1.10) |
−∞ |
|
Для стационарных процессов математическое ожидание (3.1.10) не зависит от времени и является константой, поскольку плотность вероятности p1 , входящая в подынтегральное выражение правой части (3.1.10) согласно (3.1.8) не зависит от времени t
mx = M(x(t))= ∞∫ x(t)p1(x)dx . |
(3.1.11) |
−∞ |
|
Связь значений стохастического процесса для двух разных моментов времени может быть охарактеризована корреляционной (или, точнее, автокорреляционной) функцией
153
∞ |
∞ |
Kx (t1,t2 )= M (x(t1 ) x(t2 ))= ∫ |
∫ x1x2 p2 (x1,t1; x2 ,t2 )dx1dx2 . (3.1.12) |
−∞ |
−∞ |
В выражении (3.1.12) использованы обозначения x(t1)= x1 иx(t2 )= x2 . Если в формуле (3.1.12) положить t1 =t2 =t , получим средний квадрат
M (x2 (t))= Kx (t,t)= ∞∫ x2 (t)p1(x,t)dx . |
(3.1.13) |
|
−∞ |
|
|
Для центрированного случайного |
процесса |
x (t)= x(t)− mx (t) |
средний квадрат совпадает с дисперсией, то есть |
|
|
M (x 2 (t))= Dx (t)= ∞∫(x(t)− mx (t))2 p1(x,t)dx = |
||
−∞ |
|
(3.1.14) |
∞ |
|
|
|
|
|
= ∫x2 p1(x,t)dx − mx2 (t)= Kx |
(t,t)− mx2 (t). |
|
−∞
Мерой статистической взаимосвязи двух стохастических процессов x(t) и y(t) является взаимная корреляционная функция
Kxy (t1,t2 )= ∞∫ |
∞∫ x(t1 )y(t2 )p2 (x,t1; y,t2 )dxdy , |
(3.1.15) |
−∞ |
−∞ |
|
где p2(x,t1; y,t2 ) − двумерная совместная плотность распределения процессов x(t) и y(t) в моменты времени t1 и t2.
Иногда используют нормированные корреляционные функции − нормированную автокорреляционную функцию
154
ρx |
(t1 |
,t2 )= |
|
|
Kx (t1,t2 ) |
||
|
|
|
|
||||
Kx |
(t1,t1 )Kx (t2 ,t2 ) |
||||||
|
|
|
|
||||
и нормированную взаимную корреляционную функцию
ρxy |
(t1 |
,t2 )= |
|
|
Kxy |
(t1 |
,t2 ) |
. |
|
|
|
|
|
|
|||||
Kx |
(t1,t1)Ky (t2 ,t2 ) |
||||||||
|
|
|
|
|
|||||
Смысл введения нормированных функций в том, что, как нетрудно показать, их величина не превышает единицы ρx (t1,t2 )≤ 1, ρxy (t1,t2 )≤ 1 и
является безразмерной величиной.
Для стационарных процессов корреляционная функция зависит не от
двух моментов времени t1 и t2, а от их разности τ = t2 −t1
∞ |
∞ |
|
|
Kx (t1,t2 )= Kx (t2 − t1 )= Kx (τ)= ∫ |
∫ x1x2 p2 |
(x1, x2 , τ)dx1dx2 , |
(3.1.16) |
−∞ |
−∞ |
|
|
а дисперсия является константой |
|
|
|
∞ |
|
|
|
Dx = Kx (0)− mx2 = ∫ x2 p1(x)dx − mx2 . |
(3.1.17) |
||
−∞
Если два процесса x(t)и y(t) являются стационарными и при этом стационарно связанными, их взаимная корреляционная функция зависит только от τ = t2 −t1
∞ |
∞ |
Kxy (τ)= M(x(t1 )y(t1 + τ))= ∫ |
∫ x y p(x, y,τ)dxdy . |
−∞ −∞
155