Во многих практических случаях моменты более высокого порядка не нужны, и можно пользоваться только первыми двумя моментами: математическим ожиданием и корреляционной функцией. Теории, ограничивающиеся только этими характеристиками, называются корреляционными теориями. Естественно считать, что в рамках корреляционной теории стационарными процессами будут те, у которых математическое ожидание не зависит от времени, а корреляционная функция зависит только от разности моментов времени. Такие процессы называются стационарными в широком смысле. Разумеется, процессы, стационарные в узком смысле, непременно стационарны в широком смысле, обратное же утверждение не всегда справедливо. Попутно отметим, что два первых момента определяют все последующие моменты для нормального закона распределения. Поэтому можно сказать, что корреляционная теория есть общая теория стохастических процессов с нормальным законом распределения. Дальнейшее изложение будет вестись именно в рамках корреляционной теории.
Вычисление статистических характеристик по формулам (3.1.11), (3.1.16) и (3.1.17) требует тщательной и кропотливой работы, поскольку усреднение ведётся по ансамблю реализаций и необходимы многочисленные эксперименты. Дело облегчается тем, что для многих стационарных стохастических процессов усреднение можно проводить не по множеству реализаций, а по времени. Среднее по времени вычисляется только по одной (но достаточно длинной) реализации стационарного стохастического процесса. На конечном интервале 2T среднее по времени определяется формулой
156
|
|
1 |
T∫ x(t)dt . |
|
|
xT = |
(3.1.18) |
||||
|
|||||
|
|
2T −T |
|
||
Среднее по времени на бесконечном интервале вычисляется по той же формуле (3.1.18) при T →∞
x = lim 1 T∫ x(t)dt .
T →∞ 2T −T
Стационарный стохастический процесс называется эргодическим, если среднее по ансамблю реализаций от величины, характеризующий процесс, равно среднему по времени.
Таким образом, для эргодических процессов математическое ожидание может быть вычислено по формуле
|
= |
|
= lim |
1 |
T∫ x(t)dt , |
(3.1.19) |
|
mx |
x |
||||||
|
|||||||
|
|
|
T →∞ 2T −T |
|
|||
а корреляционная функция – по формуле
|
(τ)= |
|
|
1 |
T∫ x(t)x(t + τ)dt . |
|
|
Kx |
x(t)x(t + τ)= lim |
(3.1.20) |
|||||
|
|||||||
|
|
|
T→∞ 2T −T |
|
|||
Ограничивая интервал T, получаем некоторые оценки соответствующих величин, которые (оценки) тем точнее, чем больше этот интервал.
При τ = 0 выражение (3.1.20) дает средний квадрат
Kx (0)= |
|
= lim |
1 |
T∫ x2 (t)dt . |
|
x2 |
(3.1.21) |
T →∞ 2T −T
157
Если интерпретировать процесс x(t) как напряжение, приложенное к единичному сопротивлению, то энергия, рассеиваемая этим сопротивлением, численно равна квадрату амплитуды этого напряжения, помноженному на время действия функции x(t). Это дает основание назвать среднюю энергию, рассеиваемую за единицу времени, то есть средний квадрат (3.1.21), мощностью процесса, являющейся мерой интенсивности процесса.
Разумеется, те же формулы (3.1.19), (3.1.20), (3.1.21) могут быть применены и для определения математического ожидания и корреляционной функции детерминированных процессов.
Пример 3.1.1. Математическое ожидание постоянной величины a
равно ma = a , а корреляционная функция − Ka (τ)= a2 .
Пример 3.1.2. Среднее значение синусоиды x(t)= Asinωt равно, очевидно, нулю: mx = 0 . Корреляционную функцию вычислим по формуле (3.1.20):
|
|
|
|
|
|
2 |
T |
|
2 |
ω |
2π ω |
|
|
||
Kx |
(τ)= lim |
A |
|
∫ x(t)x(t + τ)dt = |
A |
∫sinωt sin(ωt + ωτ)dt = |
|||||||||
2T |
2π |
||||||||||||||
|
|
T →∞ |
−T |
|
0 |
|
|
||||||||
|
= |
|
A2ω |
2π∫ |
ω 1 |
(cosωτ − cos(2ωt + ωτ))dt = |
A2 |
cosωτ. |
|||||||
|
|
|
|
|
|
||||||||||
|
|
|
2π |
|
|
0 |
2 |
|
|
|
|
2 |
|
||
Мощность такого синусоидального сигнала равна x2 = A2
2 .
Рассмотрим некоторые свойства корреляционной функции. Вопервых, автокорреляционная функция является четной, что следует из 158
равнозначности моментов времени в формуле (3.1.12) – от перестановки сомножителей произведение не меняется1. В частности, для стационарного процесса Kx (τ)= Kx (− τ).
Далее, автокорреляционная функция K(τ) принимает максимальное значение при τ=0, то есть
K(τ)≤ K(0).
С увеличением разницы между моментами времени t2 − t1 = τ корреляционная функция центрированного процесса убывает и при τ → ∞
уменьшается до нуля.
Взаимная корреляционная функция удовлетворяет так называемому неравенству Буняковского
Kxy (τ)≤ 
Kx (0) 
Ky (0).
Из формул (3.1.13), (3.1.14), (3.1.17) и (3.1.21) следует, что из корреляционной функции стационарного стохастического процесса можно получить:
− математическое ожидание
mx = x = 
Kx (∞) ,
− средний квадрат
1 Отметим, что взаимная корреляционная функция Kxy(τ), вообще говоря, не является четной.
159
x2 = Kx (0),
− дисперсию
Dx = Kx (0)− Kx (∞),
− среднеквадратичное отклонение
σx = 
Dx = 
Kx (0)− Kx (∞) .
Эффективной альтернативой исследованию детерминированных процессов во времени является переход в частотную область с применением преобразования Фурье. Непосредственное применение преобразования Фурье к стохастическим процессам не очень оправдано, поскольку в этом случае получается также некоторая случайная функция, но вот применить преобразование Фурье к неслучайной функции времени, характеризующей стохастический процесс, было бы, вероятно, весьма продуктивно. Такой неслучайной функцией является корреляционная функция. А.Я. Хинчин доказал, что для корреляционных функций стационарных эргодических процессов существуют интегралы Фурье.
Преобразование Фурье корреляционной функции называется спектральной плотностью
Sx (ω)= ∞∫Kx (τ)e− jωτdτ . |
(3.1.22) |
−∞ |
|
Поскольку преобразование Фурье взаимно-однозначно, обратное пре-
образование спектральной плотности даст корреляционную функцию 160