Функция взаимной корреляции. Корреляционная и взаимно корреляционная функция

Корреляция – математическая операция, схожа со свёрткой, позволяет получить из двух сигналов третий. Бывает: автокорреляция (автокорреляционная функция), взаимная корреляция (взаимнокорреляционная функция, кросскорреляционная функция). Пример:

[Взаимная корреляционная функция]

[Автокорреляционная функция]

Корреляция - это техника обнаружения заранее известных сигналов на фоне шумов, ещё называют оптимальной фильтрацией. Хотя корреляция очень похожа на свёртку, но вычисляются они по-разному. Области применения их также различные (c(t)=a(t)*b(t) - свертка двух функций, d(t)=a(t)*b(-t) - взаимная корреляция).

Корреляция – это та же свёртка, только один из сигналов инвертируется слева направо. Автокорреляция (автокорреляционная функция) характеризует степень связи между сигналом и его сдвинутой на τ копией. Взаимнокорреляционная функция характеризует степень связи между 2-мя разными сигналами.

Свойства автокорреляционной функции:

  • 1) R(τ)=R(-τ). Функция R(τ) – является чётной.
  • 2) Если х(t) – синусоидальная функция времени, то её автокорреляционная функция – косинусоидальная той же частоты. Информация о начальной фазе теряется. Если x(t)=A*sin(ωt+φ), то R(τ)=A 2 /2 * cos(ωτ).
  • 3) Функция автокорреляции и спектра мощности связаны преобразованием Фурье.
  • 4) Если х(t) – любая периодическая функция, то R(τ) для неё может быть представлена в виде суммы автокорреляционных функций от постоянной составляющей и от синусоидально изменяющейся составляющей.
  • 5) Функция R(τ) не несёт никакой информации о начальных фазах гармонических составляющих сигнала.
  • 6) Для случайной функции времени R(τ) быстро уменьшается с увеличением τ. Интервал времени, после которого R(τ) становится равным 0 называется интервалом автокорреляции.
  • 7) Заданной x(t) соответствует вполне определённое R(τ), но для одной и той же R(τ) могут соответствовать различные функции x(t)

Исходный сигнал с шумами:

Автокорреляционная функция исходного сигнала:

Свойства взаимной корреляционной функции (ВКФ):

  • 1) ВКФ не является ни чётной ни нечётной функ¬цией, т.е. R ху (τ) не равно R ху (-τ).
  • 2) ВКФ остаётся неизменной при перемене чередования функций и изменений знака аргумента, т.е. R ху (τ)=R ху (-τ).
  • 3) Если случайные функции x(t) и y(t) не содержат постоянных составляющих и создаются независимыми источниками, то для них R ху (τ) стремится к 0. Такие функции называются некоррелированными.

Исходный сигнал с шумами:

Меандр той же частоты:

Корреляция исходного сигнала и меандра:



Внимание! Каждый электронный конспект лекций является интеллектуальной собственностью своего автора и опубликован на сайте исключительно в ознакомительных целях.

В этой главе понятия, введенные в гл. 5 и 6 (вып. 1), распространяются на случай пары временных рядов и случайных процессов. Первым таким обобщением, приведенным в разд. 8.1, является взаимная корреляционная функция двумерного стационарного случайного процесса. Эта функция характеризует корреляцию двух процессов при различных запаздываниях. Второе обобщение представляет собой двумерный линейный процесс, образуемый с помощью линейных операций над двумя источниками белого шума. Важными частными случаями такого процесса являются двумерный процесс авторегрессии и двумерный процесс скользящего среднего.

В разд. 8.2 мы обсудим вопрос об оценивании взаимной корреляционной функции. Мы покажем, что если не применять к обоим рядам фильтрации, переводящей их в белый шум, то при оценивании могут возникать ложные завышенные значения взаимной корреляции. В разд. 8.3 вводится третье обобщение - взаимный спектр стационарного двумерного процесса. Взаимный спектр содержит два различных вида информации, характеризующей зависимость между двумя процессами. Информация первого типа содержится в спектре когерентности, являющемся эффективной мерой корреляции двух процессов на каждой из частот. Информация второго типа дается фазовым спектром, характеризующим разность фаз двух процессов на каждой из частот. В разд. 8.4 оба эти типа информации иллюстрируются на простых примерах.

8.1. ФУНКЦИЯ ВЗАИМНОЙ КОРРЕЛЯЦИИ

8.1.1. Введение

В этой главе мы будем заниматься вопросами описания пары временных рядов, или двумерного временного ряда. Используемые при этом способы являются обобщением способов, применявшихся в гл. 5, 6, и поэтому все относящиеся к временным рядам общие положения, изложенные в разд. 5.1, применимы и в этом случае. В разд. 5.1 под заголовком «Многомерные временные

ряды» кратко упоминалось о том, что отдельные временные ряды, образующие многомерный ряд, могут быть неравноправны по отношению друг к другу. Рассмотрим, например, систему, показанную на рис. 8.1, которая имеет два входа и два выхода

Рис. 8.1. Физическая система с двумя входами и двумя выходами.

Можно различать две ситуации. В первом случае два ряда находятся в одинаковом положении по отношению друг к другу, как, например, два входа на рис. 8.1.

Рис. 8.2. Синфазный и сдвинутый по фазе токи на выходе турбогенератора.

В этом случае могут быть двумя коррелированными переменными управления, взаимодействие которых мы хотим изучить. Пример пары временных рядов, попадающих в эту категорию, приведен на рис. 8.2,

где приведены записи синфазного и сдвинутого по фазе входных токов турбогенератора.

Во втором случае два временных ряда причинно связаны, например вход на рис. 8.1 и зависящий от него выход . В такой ситуации обычно требуется оценить свойства системы в такой форме, чтобы было удобно предсказывать выход по входу. Пример пары временных рядов такого типа приведен на рис. 8.3, где показана скорость впуска газа и концентрация двуокиси углерода на выходе газовой печи.

Рис. 8.3. Сигналы на входе и выходе газовой печи.

Видно, что выход запаздывает по отношению ко входу из-за того, что для доставки газа к реактору требуется некоторое время.

Математическое ожидание и дисперсия являются важными характеристиками случайного процесса, но они не дают достаточного представления о том, какой характер будут иметь отдельные реализации случайного процесса. Это хороню видно из рис. 9.3, где показаны реализации двух случайных процессов, совершенно различных по своей структуре, хотя и имеющих

одинаковые значения математического ожидания и дисперсии. Штриховыми линиями на рис. 9.3 показаны значения для случайных процессов.

Процесс, изображенный на рис. 9.3, а, от одного сечения к другому протекает сравнительно плавно, а процесс на рис. 9.3, б обладает сильной изменчивостью от сечения к сечению Поэтому статистическая связь между сечениями в первом случае больше, чем во втором, однако ни по математическому ожиданию, ни по дисперсии этого установить нельзя.

Чтобы в какой-то мере охарактеризовать внутреннюю структуру случайного процесса, т. е. учесть связь между значениями случайного процесса в различные моменты времени или, иными словами, учесть степень изменчивости случайного процесса, необходимо ввести понятие о корреляционной (автокорреляционной) функции случайного процесса.

Корреляционной функцией случайного процесса называют неслучайную функцию двух аргументов которая для каждой пары произвольно выбранных значений аргументов (моментов времени) равна математическому ожиданию произведения двух случайных величин соответствующих сечений случайного процесса:

где - двумерная плотность вероятности; - центрированный случайный процесс; - математическое ожидание (среднее значение) случайного процесса.

Различные случайные процессы в зависимости от того, как изменяются их статистические характеристики с течением времени, делят на стационарные и нестационарные. Разделяют стационарность в узком смысле и стационарность в широком смысле.

Стационарным в узком смысле называют случайный процесс если его n-мерные функции распределения и плотности вероятности при любом не зависят от сдвига всех точек

Вдоль оси времени на одинаковую величину т. е.

Это означает, что два процесса имеют одинаковые статистические свойства для любого т. е. статистические характеристики стационарного случайного процесса неизменны во времени.

Стационарный случайный процесс - это своего рода аналог установившегося процесса в детерминированных системах. Любой переходный процесс не является стационарным.

Стационарным в широком смысле называют случайный процесс математическое ожидание которого постоянно:

а корреляционная функция зависит только от одной переменной - разности аргументов при этом корреляционную функцию обозначают

Процессы, стационарные в узком смысле, обязательно стационарны и в широком смысле; однако обратное утверждение, вообще говоря, неверно.

Понятие случайного процесса, стационарного в широком смысле, вводится тогда, когда в качестве статистических характеристик случайного процесса используются только математическое ожидание и корреляционная функция. Часть теории случайных процессов, которая описывает свойства случайного процесса через его математическое ожидание и корреляционную функцию, называют корреляционной теорией.

Для случайного процесса с нормальным законом распределения математическое ожидание и корреляционная функция полностью определяют его n-мерную плотность вероятности.

Поэтому для нормальных случайных процессов понятия стационарности в широком и узком смысле совпадают.

Теория стационарных процессов разработана наиболее полно и позволяет сравнительно просто производить расчеты для многих практических случаев. Поэтому допущение о стационарности иногда целесообразно делать также и для тех случаев, когда случайный процесс хотя и нестационарен но на рассматриваемом отрезке времени работы системы статистические характеристики сигналов не успевают сколько-нибудь существенно измениться. В дальнейшем, если не будет оговорено особо, будут рассматриваться случайные процессы, стационарные в широком смысле.

При изучении случайных процессов, стационарных в широком смысле, можно ограничиться рассмотрением только процессов с математическим ожиданием (средним значением), равным нулю, т. е. так как случайный процесс с ненулевым математическим ожиданием представляют как сумму процесса с нулевым математическим ожиданием и постоянной неслучайной (регулярной) величиной, равной математическому ожиданию этого процесса (см. далее § 9.6).

При выражение для корреляционной функции

В теории случайных процессов пользуются двумя понятиями средних значений. Первое понятие о среднем значении - это среднее значение по мнооюеству (или математическое ожидание), которое определяется на основе наблюдения над множеством реализацчй случайного процесса в один и тот же момент времени. Среднее значение по множеству принято обозначать волнистой чертой над выражением, описывающим случайную функцию:

В общем случае среднее значение по множеству является функцией времени

Другое понятие о среднем значении - это среднее значение по времени, которое определяется на основе наблюдения за отдельной реализацией случайного процесса на протяжении

достаточно длительного времени Т. Среднее значение по времени обозначают прямой чертой над соответствующим выражением случайной функции и определяют по формуле:

если этот предел существует.

Среднее значение по времени в общем случае различно для отдельных реализаций множества, определяющих случайный процесс. Вообще говоря, для одного и того же случайного процесса среднее по множеству и среднее по времени значения различны. Однако существует класс стационарных случайных процессов, называемых эргодическими, для которых среднее по множеству равно среднему по времени, т. е.

Корреляционная функция эргодического стационарного случайного процесса неограниченно убывает по модулю при

Однако надо иметь в виду, что не всякий стационарный случайный процесс является эргодическим, например случайный процесс каждая реализация которого постоянна во времени (рис. 9.4), является стационарным, но не эргодическим. В этом случае средние значения, определенные по одной реализации и в результате обработки множества реализаций, не совпадают. Один и тот же случайный процесс в общем случае может быть эргодическим по отношению к одним статистическим характеристикам и неэргодическим по отношению к другим. В дальнейшем будем считать, что по отношению ко всем статистическим характеристикам условия эргодичности выполняются.

Свойство эргодичности имеет очень большое практическое значение. Для определения статистических свойств некоторых объектов, если трудно осуществить одновременное наблюдение за ними в произвольно выбранный момент времени (например, при наличии одного опытного образца), его можно заменить длительным наблюдением за одним объектом. Иными словами, отдельная реализация эргодического случайного

процесса на бесконечном промежутке времени полностью определяет весь случайный процесс с его бесконечными реализациями. Собственно говоря, этот факт лежит в основе описанного ниже метода экспериментального определения корреляционной функции стационарного случайного процесса по одной реализации.

Как видно из (9.25), корреляционная функция представляет собой среднее значение по множеству. Для эргодических случайных процессов корреляционную функцию можно определить как среднее по времени от произведения , т. е.

где - любая реализация случайного процесса; х - среднее значение по времени, определяемое по (9.28).

Если среднее значение случайного процесса равно нулю то

Основываясь на свойстве эргодичности, можно дисперсию [см. (9.19)] определить как среднее по времени от квадрата центрированного случайного процесса, т. е.

Сравнивая выражения (9.30) и (9.32) при можно установить очень важную связь между дисперсией и корреляционной функцией - дисперсия стационарного случайного процесса равна начальному значению корреляционной функции:

Из (9.33) видно, что дисперсия стационарного случайного процесса постоянна, а следовательно, постоянно и среднее квадратическое отклонение:

Статистические свойства связи двух случайных процессов можно характеризовать взаимной корреляционной функцией которая для каждой пары произвольно выбранных значений аргументов равна

Для эргодических случайных процессов вместо (9.35) можно записать

где - любые реализации стационарных случайных процессов соответственно.

Взаимная корреляционная функция характеризует взаимную статистическую связь двух случайных процессов в разные моменты времени, отстоящие друг от друга на промежуток времени . Значение характеризует эту связь в один и тот же момент времени.

Из (9.36) следует, что

Если случайные процессы статистически не связаны друг с другом и имеют равные нулю средние значения, то их взаимная корреляционная функция для всех равна нулю. Однако обратный вывод о том, что если взаимная корреляционная функция равна нулю, то процессы независимы, можно сделать лишь в отдельных случаях (в частности, для процессов с нормальным законом распределения), общей же силы обратный закон не имеет.

Заметим, что корреляционные функции могут вычисляться и для неслучайных (регулярных) функций времени. Однако когда говорят о корреляционной функции регулярной функции то под этим понимают просто результат формального

применения к регулярной функции операции, выражаемой интегралом:

Приведем некоторые основные свойства корреляционных функций

1. Начальное значение корреляционной функции [см. (9.33)] равно дисперсии случайного процесса:

2. Значение корреляционной функции при любом не может превышать ее начального значения, т. е.

Чтобы доказать это, рассмотрим очевидное неравенство из которого следует

Находим средние значения по времени от обеих частей последнего неравенства:

Таким образом, получим неравенство

3. Корреляционная функция есть четная функция , т. е.

Это вытекает из самого определения корреляционной функции. Действительно,

поэтому на графике корреляционная функция всегда симметрична относительно оси ординат.

4. Корреляционная функция суммы случайных процессов определяется выражением

где - взаимные корреляционные функции

Действительно,

5. Корреляционная функция постоянной величины равна квадрату этой постоянной величины (рис. 9.5, а), что вытекает из самого определения корреляционной функции:

6. Корреляционная функция периодической функции, например представляет собой косинусоиду (рис. 9-5, 5), т. е.

имеющую ту же частоту что и и не зависящую от сдвига фазы

Чтобы доказать это, заметим, что при нахождении корреляционных функций периодических функций можно использовать следующее равенство:

где - период функции

Последнее равенство получается после замены интеграла с пределами от -Т до Т при Т со суммой отдельных интегралов с пределами от до , где и использования периодичности подынтегральных функций.

Тогда, учитывая сказанное выше, получим т.

7. Корреляционная функция временной функции, разлагаемой в ряд Фурье:

Рис. 9.5 (см. скан)

имеет на основании изложенного выше следующий вид:

8. Типичная корреляционная функция стационарного случайного процесса имеет вид, представленный на рис. 9.6. Ее можно аппроксимировать следующим аналитическим выражением:

С ростом связь между ослабевает и корреляционная функция становится меньше. На рис. 9.5, б, в приведены, например, две корреляционные функции и две соответствующие им реализации случайного процесса. Легко заметить, что корреляционная функция, соответствующая случайному процессу с более тонкой структурой, убывает быстрее Другими словами, чем более высокие частоты присутствуют в случайном процессе, тем быстрее убывает соответствующая ему корреляционная функция.

Иногда встречаются корреляционные функции, которые могут быть аппроксимированы аналитическим выражением

где - дисперсия; - параметр затухания; - резонансная частота.

Корреляционные функции подобного вида имеют, например, случайные процессы типа турбулентности атмосферы, фединга радиолокационного сигнала, углового мерцания цели и т. п. Выражения (9.45) и (9.46) часто используются для аппроксимации корреляционных функций, полученных в результате обработки экспериментальных данных.

9. Корреляционная функция Стационарного случайного процесса, на которой наложена периодическая составляющая с частотой также будет содержать периодическую составляющую той же частоты.

Это обстоятельство можно использовать как один из способов обнаружения «скрытой периодичности» в случайных процессах, которая может не обнаруживаться при первом взгляде на отдельные записи реализации случайного процесса.

Примерный вид корреляционной функции процесса содержащего в своем составе кроме случайной также и периодическую составляющую, показан на рис. 9.7, где обозначена корреляционная функция, соответствующая случайной составляющей. Чтобы выявить скрытую периодическую составляющую (такая задача возникает, например, при выделении малого полезного сигнала на фоне большой помехи), лучше всего определить корреляционную функцию для больших значений когда случайный сигнал уже сравнительно слабо коррелирован и случайная составляющая слабо сказывается на виде корреляционной функции.

Множество непрерывных функций действительного переменного { U n (t ) } = { U 0 (t ) , U 1 (t ),.. . } называе т ся ортогональным на интервале [ t 0 , t 0 + T ] , если

При с = 1 множество {U n (t)} называется ортонормированным.

Для вычисления сигнала через коэффициенты разложения используется:


В силу условий ортогональности будем иметь

  1. Функция взаимной корреляции. Функция автокорреляции.

Корреляция – математическая операция, схожа со свёрткой, позволяет получить из двух сигналов третий. Бывает: автокорреляция (автокорреляционная функция), взаимная корреляция (взаимнокорреляционная функция, кросскорреляционная функция). Пример:

[Взаимная корреляционная функция]

[Автокорреляционная функция]

Корреляция - это техника обнаружения заранее известных сигналов на фоне шумов, ещё называют оптимальной фильтрацией. Хотя корреляция очень похожа на свёртку, но вычисляются они по-разному. Области применения их также различные (c(t)=a(t)*b(t) - свертка двух функций, d(t)=a(t)*b(-t) - взаимная корреляция).

Корреляция – это та же свёртка, только один из сигналов инвертируется слева направо. Автокорреляция (автокорреляционная функция) характеризует степень связи между сигналом и его сдвинутой на? копией. Взаимнокорреляционная функция характеризует степень связи между 2-мя разными сигналами.

Взаимные корреляционные функции сигналов

Взаимная корреляционная функция (ВКФ) разных сигналов (cross-correlation function, CCF) описывает как степень сходства формы двух сигналов, так и их взаимное расположение друг относительно друга по координате (независимой переменной). Обобщая формулу (6.1) автокорреляционной функции на два различных сигнала s(t) и u(t), получаем следующее скалярное произведение сигналов:

B su (t) =s(t) u(t+t) dt. (6.14)

Взаимная корреляция сигналов характеризует определенную корреляцию явлений и физических процессов, отображаемых данными сигналами, и может служить мерой “устойчивости” данной взаимосвязи при раздельной обработке сигналов в различных устройствах. Для конечных по энергии сигналов ВКФ также конечна, при этом:

|B su (t)| £ ||s(t)||×||u(t)||,

что следует из неравенства Коши-Буняковского и независимости норм сигналов от сдвига по координатам.

При замене переменной t = t-t в формуле (6.2.1), получаем:

B su (t) =s(t-t) u(t) dt =u(t) s(t-t) dt = B us (-t).

Отсюда следует, что для ВКФ не выполняется условие четности, B su (t) ¹ B su (-t), и значения ВКФ не обязаны иметь максимум при t = 0.

Это можно наглядно видеть на рис. 6.6, где заданы два одинаковых сигнала с центрами на точках 0.5 и 1.5. Вычисление по формуле (6.14) с постепенным увеличением значений t означает последовательные сдвиги сигнала s2(t) влево по оси времени (для каждого значения s1(t) для подынтегрального умножения берутся значения s2(t+t)). При t=0 сигналы ортогональны и значение B 12 (t)=0. Максимум В 12 (t) будет наблюдаться при сдвиге сигнала s2(t) влево на значение t=1, при котором происходит полное совмещение сигналов s1(t) и s2(t+t).

Рис. 6.6. Сигналы и ВКФ

Одни и те же значения ВКФ по формулам (6.14) и (6.14") наблюдаются при одном и том же взаимном положении сигналов: при сдвиге на интервал t сигнала u(t) относительно s(t) вправо по оси ординат и сигнала s(t) относительно сигнала u(t) влево, т.е. B su (t) = B us (-t).

На рис. 6.7 приведены примеры ВКФ для прямоугольного сигнала s(t) и двух одинаковых треугольных сигналов u(t) и v(t). Все сигналы имеют одинаковую длительность Т, при этом сигнал v(t) сдвинут вперед на интервал Т/2.

Рис. 6.7. Взаимноковариационные функции сигналов

Сигналы s(t) и u(t) одинаковы по временному расположению и площадь "перекрытия" сигналов максимальна при t=0, что и фиксируется функцией B su . Вместе с тем функция B su резко асимметрична, так как при асимметричной форме сигнала u(t) для симметричной формы s(t) (относительно центра сигналов) площадь "перекрытия" сигналов изменяется по разному в зависимости от направления сдвига (знака t при увеличения значения t от нуля). При смещении исходного положения сигнала u(t) влево по оси ординат (на опережение сигнала s(t) - сигнал v(t)) форма ВКФ остается без изменения и сдвигается вправо на такое же значение величины сдвига – функция B sv на рис. 6.7. Если поменять местами выражения функций в (6.14), то новая функция B vs будет зеркально повернутой относительно t=0 функцией B sv .



С учетом этих особенностей полное ВКФ вычисляется, как правило, отдельно для положительных и отрицательных запаздываний:

B su (t) =s(t) u(t+t) dt. B us (t) =u(t) s(t+t) dt. (6.14")

error: