sonyps4.ru

Корреляционная функция синусоиды. Конспект лекции: Корреляция, автокорреляция, взаимная корреляция

Корреляция – математическая операция, схожа со свёрткой, позволяет получить из двух сигналов третий. Бывает: автокорреляция (автокорреляционная функция), взаимная корреляция (взаимнокорреляционная функция, кросскорреляционная функция). Пример:

[Взаимная корреляционная функция]

[Автокорреляционная функция]

Корреляция - это техника обнаружения заранее известных сигналов на фоне шумов, ещё называют оптимальной фильтрацией. Хотя корреляция очень похожа на свёртку, но вычисляются они по-разному. Области применения их также различные (c(t)=a(t)*b(t) - свертка двух функций, d(t)=a(t)*b(-t) - взаимная корреляция).

Корреляция – это та же свёртка, только один из сигналов инвертируется слева направо. Автокорреляция (автокорреляционная функция) характеризует степень связи между сигналом и его сдвинутой на τ копией. Взаимнокорреляционная функция характеризует степень связи между 2-мя разными сигналами.

Свойства автокорреляционной функции:

  • 1) R(τ)=R(-τ). Функция R(τ) – является чётной.
  • 2) Если х(t) – синусоидальная функция времени, то её автокорреляционная функция – косинусоидальная той же частоты. Информация о начальной фазе теряется. Если x(t)=A*sin(ωt+φ), то R(τ)=A 2 /2 * cos(ωτ).
  • 3) Функция автокорреляции и спектра мощности связаны преобразованием Фурье.
  • 4) Если х(t) – любая периодическая функция, то R(τ) для неё может быть представлена в виде суммы автокорреляционных функций от постоянной составляющей и от синусоидально изменяющейся составляющей.
  • 5) Функция R(τ) не несёт никакой информации о начальных фазах гармонических составляющих сигнала.
  • 6) Для случайной функции времени R(τ) быстро уменьшается с увеличением τ. Интервал времени, после которого R(τ) становится равным 0 называется интервалом автокорреляции.
  • 7) Заданной x(t) соответствует вполне определённое R(τ), но для одной и той же R(τ) могут соответствовать различные функции x(t)

Исходный сигнал с шумами:

Автокорреляционная функция исходного сигнала:

Свойства взаимной корреляционной функции (ВКФ):

  • 1) ВКФ не является ни чётной ни нечётной функ¬цией, т.е. R ху (τ) не равно R ху (-τ).
  • 2) ВКФ остаётся неизменной при перемене чередования функций и изменений знака аргумента, т.е. R ху (τ)=R ху (-τ).
  • 3) Если случайные функции x(t) и y(t) не содержат постоянных составляющих и создаются независимыми источниками, то для них R ху (τ) стремится к 0. Такие функции называются некоррелированными.

Исходный сигнал с шумами:

Меандр той же частоты:

Корреляция исходного сигнала и меандра:



Внимание! Каждый электронный конспект лекций является интеллектуальной собственностью своего автора и опубликован на сайте исключительно в ознакомительных целях.

  • 5 Спектральный анализ периодических сигналов. Условия Дирихле. Ряд Фурье.
  • 6 Спектральный анализ непериодических сигналов. Преобразование Фурье. Равенство Парсеваля.
  • 7 Представление непрерывных сигналов выборками. Теорема Котельникова. Влияние частоты дискретизации на возможность восстановления сигнала с помощью фильтра.
  • 8 Процесс интерполяции непрерывного сообщения. Простейшие виды интерполяции алгебраическими полиномами.
  • 9 Корреляционный анализ. Корреляционная функция, ее свойства. Вычисление корреляционной функции одиночного импульса и периодического сигнала
  • 10 Взаимная корреляционная функция, ее свойства. Вычисление взаимной корреляционной функции сигналов
  • 11 Случайные процессы. Реализация случайного процесса. Законы распределения случайных процессов
  • 13 Помехоустойчивое кодирование. Повышение верности в одностороннем и двустороннем каналах передачи
  • 14 Блочные систематические коды, свойства и способы представления
  • 15 Коды Хэмминга, свойства. Структурная схема кодера и декодера, принцип работы
  • 16 Общие свойства и способы представления циклических кодов.
  • 18 Аналоговые виды модуляции. Амплитудная модуляция. Амплитудно-модулированное колебание, временная и спектральная характеристики
  • 19 Аналоговые виды модуляции. Амплитудный модулятор.
  • 20 Аналоговые виды модуляции. Демодулятор ам-сигналов.
  • 21. Аналоговые виды модуляции. Балансная модуляция. Балансно-модулированное колебание, временная и спектральная характеристики. Модулятор и демодулятор бмк.
  • 22 Аналоговые виды модуляции. Однополосная модуляция. Методы формирования одной боковой полосы частот ам-колебания.
  • 24 Спектры фазо-модулированных и частотно-модулированных колебаний.
  • 25 Аналого-импульсные виды модуляции. Амплитудно-импульсная модуляция: аим-1 и аим-2. Модуляторы и демодуляторы аим сигналов.
  • 26 Широтно-импульсная модуляция: шим-1 и шим-2. Спектральное представление шим-сигнала. Модуляторы шим-сигналов.
  • 27 Фазо-импульсная модуляция. Модуляторы фим-сигналов.
  • 28 Частотно-импульсная модуляция. Детекторы чим-сигналов.
  • 29 Цифровые виды модуляции. Импульсно-кодовая модуляция. Дискретизация, квантование и кодирование.
  • 30 Дифференциальная икм. Структурная схема системы передачи с предсказанием. Структурная схема линейного предсказателя, принцип работы. Адаптивная дифференциальная икм.
  • 31 Дельта-модуляция. Принцип формирования сигнала дельта-модуляции. Адаптивная дельта-модуляция.
  • 32 Дискретные виды модуляции. Способы двухпозиционной (однократной) модуляции. Позиционность сигнала, кратность модуляции.
  • 33 Однократная абсолютная фазовая манипуляция. Фазовый манипулятор.
  • 34 Детектор фмн-сигналов.
  • 35 Манипулятор однократной относительной фазовой манипуляции.
  • 35 Манипулятор однократной относительной фазовой манипуляции.
  • 36 Демодулятор сигналов с однократной офмн.
  • 38 Принципы построения многоканальных систем передачи. Теоретические предпосылки разделения каналов. Частотное разделение каналов.
  • 39 Фазовое разделение каналов. Модулятор и демодулятор сигналов дофмн.
  • 40 Временное разделение каналов. Структурная схема многоканальной системы передачи с временным разделением каналов.
  • 41 Оптимальный прием сигналов. Задачи и критерии оптимального приема.
  • 42 Структурная схема приемника при полностью известных сигналах, принцип работы.
  • 9 Корреляционный анализ. Корреляционная функция, ее свойства. Вычисление корреляционной функции одиночного импульса и периодического сигнала

    Наряду со спектральным анализом корреляционный анализ играет большую роль в теории сигналов. Его смысл состоит в измерении степени сходства (различия) сигналов. Для этого служит корреляционная ф-ция.

    КФ представляет собой интеграл от произведения двух копий сигнала, сдвинутых друг отн. друга на время .

    Чем больше значение КФ, тем сильнее сходство. КФ обладает следующими свойствами:

    1. Значение КФ при
    равно энергии сигнала (интегралу от его квадрата)

    2. Является четной функцией

    3. Значение КФ при

    4. С ростом абс. значения КФ сигнала с конечной энергией затухает

    5. Если сигнал является ф-цией напряжения от времени, то размерность его КФ [
    ]

    В случае периодического сигнала (с периодом Т) КФ вычисляют, усредняя произведение сдвинутых копий в пределах одного периода:

    Набор свойств такой КФ изменяется:

    1. Значение КФ при
    равно средней мощности сигнала

    2. Свойство четности сохраняется.

    3. Значение КФ при
    является максимально возможным.

    4. КФ является периодической ф-цией (с тем же периодом, что и сигнал)

    5. Если сигнал не содержит дельта-функций, то его КФ непрерывна.

    6. Если сигнал является зависимостью U(t), то размерность КФ [
    ]

    КФ гармонического сигнала является гармонической ф-цией, которая не зависит от начальной фазы сигнала.

    10 Взаимная корреляционная функция, ее свойства. Вычисление взаимной корреляционной функции сигналов

    Взаимная корреляционная функция (ВКФ)- функция, показывающая степень сходства для сдвинутых во времени 2-ух различных сигналов.

    Общий вид:

    Для примера вычислим ВКФ 2-ух функций:


    При

    При

    При

    Объединяя результаты, можно записать:

    Свойства ВКФ:

    1)

    2)

    3)

    4) Если функции S 1 (t ) и S 2 (t ) не содержат дельта-функций, то их ВКФ не может иметь разрывов.

    5) Если в качестве сигнала выступает функция U (t ) , то размерность ВКФ

    11 Случайные процессы. Реализация случайного процесса. Законы распределения случайных процессов

    Иногда на практике приходится иметь дело с явлениями, протекание которых во времени непредсказуемо и в каждый момент времени описывается случайной величиной. Такие явления называются случайными процессами. Случайным процессом называется функция ζ(t ) неслучайного аргумента t (как правило, времени), которая при каждом фиксированном значении аргумента является случайной величиной. Например, температура в течение суток, регистрируемая самописцем. Значения, принимаемые процессом ζ(t ) в определенные моменты времени называются состояниями , а множество всех состояний – фазовым пространством случайного процесса. В зависимости от количества возможных состояний случайного процесса его фазовое пространство может быть дискретным или непрерывным. Если случайный процесс может изменять свое состояние лишь в определенные моменты времени, то такой процесс называется случайным процессом с дискретным временем ; а если в произвольные, то – процессом с непрерывным временем .

    Случайный процесс ζ(t ) называется стационарным , если распределение вероятностей его возможных состояний не изменяется во времени. Например, при ежесекундном подбрасывании игральной кости распределение вероятностей состояний соответствующего случайного процесса (рис.44, б ) не зависит (не изменяется) от времени (при этом все состояния ζ(t ) равновозможны). В противоположность этому, случайный процесс, характеризующий температуру окружающей среды, не является стационарным, т.к. для лета характерны более высокие температуры, чем для зимы.

    Распределение вероятностей состояний стационарного случайного процесса называется стационарным распределением .

    Существуют различные законы распределения среди них Равномерное, Гаусовское (нормальное)

    Равномерное : пусть некторая случ величина х может принимать значения х 1 <=x<=x 2 тогда плотность вероятности

    P(x)=система(0 при xх 2)

    Функцию распределения найдем путем интегрирования

    F(x)= система(0 при xx 2)

    Гауссово (нормальное) распределение . В теории случайных сигналов фундаментальное значение имеет гауссова плотность вероятности

    Смысл спектрального анализа сигналов заключается в изучении того, как сигнал может быть представлен в виде суммы (или интеграла) простых гармонических колебаний и как форма сигнала определяет структуру распределения по частотам амплитуд и фаз этих колебаний. В противоположность этому задачей корреляционного анализа сигналов является определение меры степени сходства и различия сигналов или сдвинутых по времени копий одного сигнала. Введение меры открывает пути к проведению количественных измерений степени схожести сигналов. Будет показано, что существует определенная взаимосвязь между спектральными и корреляционными характеристиками сигналов.

    3.1 Автокорреляционная функция (акф)

    Автокорреляционная функция сигнала с конечной энергией – это значение интеграла от произведения двух копий этого сигнала, сдвинутых относительно друг друга на время τ, рассматриваемое в функции этого временного сдвига τ:

    Если сигнал определен на конечном интервале времени , то его АКФ находится как:

    ,

    где
    - интервал перекрытия сдвинутых копий сигнала.

    Считается, что чем больше значение автокорреляционной функции
    при данном значении, тем в большей степени две копии сигнала, сдвинутые на промежуток времени, похожи друг на друга. Поэтому корреляционная функция
    и является мерой сходства для сдвинутых копий сигнала.

    Вводимая таким образом мера сходства для сигналов, имеющих форму случайных колебаний вокруг нулевого значения, обладает следующими характерными свойствами.

    Если сдвинутые копии сигнала колеблются примерно в такт друг к другу, то это является признаком их схожести и АКФ принимает большие положительные значения (большая положительная корреляция). Если копии колеблются почти в противофазе, АКФ принимает большие отрицательные значения (антисходство копий сигнала, большая отрицательная корреляция).

    Максимум АКФ достигается при совпадении копий, то есть при отсутствии сдвига. Нулевые значения АКФ достигаются при сдвигах, при которых не заметно ни сходства, ни антисходства копий сигнала (нулевая корреляция, отсутствие корреляции).

    На рис.3.1 изображен фрагмент реализации некоторого сигнала на интервале времени от 0 до 1 с. Сигнал случайным образом колеблется вокруг нулевого значения. Поскольку интервал существования сигнала конечен, то конечна и его энергия. Его АКФ можно вычислить в соответствии с уравнением:

    .

    Автокорреляционная функция сигнала, вычисленная вMathCad в соответствии с этим уравнением, представлена на рис. 3.2. Корреляционная функция показывает не только то, что сигнал похож сам на себя (сдвиг τ=0), но и то, что некоторой схожестью обладают и копии сигнала, сдвинутые друг относительно друга приблизительно на 0.063 с (боковой максимум автокорреляционной функции). В противоположность этому копии сигнала сдвинутые на 0.032 с, должны быть антипохожи дуг на друга, то есть быть в некотором смысле противоположными друг другу.

    На рис.33 показаны пары этих двух копий. По рисунку можно проследить, что понимается под похожестью и антипохожестью копий сигнала.

    Корреляционная функция обладает следующими свойствами:

    1. При τ = 0 автокорреляционная функция принимает наибольшее значение, равное энергии сигнала

    2. Автокорреляционная функция является четной функцией временного сдвига
    .

    3. С ростом τ автокорреляционная функция убывает до нуля

    4. Если сигнал не содержит разрывов типа δ - функций, то
    - непрерывная функция.

    5. Если сигнал является электрическим напряжением, то корреляционная функция имеет размерность
    .

    Для периодических сигналов в определении автокорреляционной функции тот же самый интеграл делят еще на период повторения сигнала:

    .

    Так введенная корреляционная функция отличается следующими свойствами:


    Для примера вычислим корреляционную функцию гармонического колебания :

    Используя ряд тригонометрических преобразований, получим окончательно:

    Таким образом, автокорреляционная функция гармонического колебания является косинусоидой с тем же периодом изменения, что и сам сигнал. При сдвигах, кратных периоду колебания, гармоника преобразуется в себя и АКФ принимает наибольшие значения, равные половине квадрата амплитуды. Сдвиги по времени, кратные половине периода колебания, равносильны смещению фазы на угол
    , при этом меняется знак колебаний, а АКФ принимает минимальное значение, отрицательное и равное половине квадрата амплитуды. Сдвиги, кратные четверти периода, переводят, например, синусоидальное колебание в косинусоидальное и наоборот. При этом АКФ обращается в нуль. Такие сигналы, находящиеся в квадратуре друг относительно друга, с точки зрения автокорреляционной функции оказываются совершенно не похожими друг на друга.

    Важным является то, что в выражение для корреляционной функции сигнала не вошла его начальная фаза. Информация о фазе потерялась. Это означает, что по корреляционной функции сигнала нельзя восстановить сам сигнал. Отображение
    в противоположность отображению
    не является взаимно однозначным.

    Если под механизмом генерирования сигналов понимать некоего демиурга, создающего сигнал по выбранной им корреляционной функции, то он смог бы создать целую совокупность сигналов (ансамбль сигналов), имеющих действительно одну и ту же корреляционную функцию, но отличающихся друг от друга фазовыми соотношениями.

      актом проявления сигналом своей свободной воли, независимой от воли создателя (возникновение отдельных реализаций некоторого случайного процесса),

      результатом постороннего насилия над сигналом (введение в сигнал измерительной информации, получаемой при проведении измерений какой либо физической величины).

    Аналогичным образом обстоит дело с любым периодическим сигналом. Если периодический сигнал с основным периодом Т имеет амплитудный спектр
    и фазовый спектр
    , то корреляционная функция сигнала принимает следующий вид:

    .

    Уже в этих примерах проявляется некоторая связь между корреляционной функцией и спектральными свойствами сигнала. Подробнее об этих соотношениях речь пойдет в дальнейшем.

    Согласно равенству (13.5), корреляционная функция отклика нелинейного устройства может быть следующим образом выражена через переходную функцию этого устройства:

    Двойной интеграл по равен, как это видно из сравнения с равенством (4.25), совместной характеристической функции величин записанной в виде функции комплексных переменных . Следовательно,

    Выражение (13.40) является основной формулой при анализе случайных воздействий на нелинейные устройства методом преобразований. Оставшаяся часть этой главы посвящена вычислению этого выражения для различных типов устройств и различных видов воздействий на них.

    Во многих задачах воздействие, подаваемое на вход системы, представляет собой сумму полезного сигнала и шума:

    где - выборочные функции статистически независимых вероятностных процессов. В таких случаях совместная характеристическая функция воздействия равна произведению характеристических функций сигнала и шума и равенство (13.40) принимает

    где - совместная характеристическая функция величин - совместная характеристическая функция величин и

    Гауссовский шум на входе. Если шум на входе устройства является выборочной функцией действительного гауссовского вероятностного процесса с нулевым математическим ожиданием, то, согласно равенству (8.23),

    где Корреляционная функция отклика в таком случае принимает вид

    Если теперь могут быть представлены в виде произведений функции от на функцию от или в виде сумм таких произведений, то двойной интеграл в последнем выражении может быть вычислен как произведение интегралов. Тот факт, что экспоненциальная функция может быть представлена через произведения функций от и вытекает из разложения ее в степенной ряд

    Поэтому корреляционная функция отклика нелинейного устройства при подале на вход его гауссовского шума может быть записана

    Синусоидальные сигналы.

    Предположим теперь, что сигнал на входе устройства представляет собой модулированную синусоиду, т. е. что

    где - выборочная функция низкочастотного вероятностного процесса (т. е. такого, у которого спектральная плотность отлична от нуля лишь в диапазоне частот, примыкающем к нулевой частоте и узком по сравнению с и где случайная величина распределена равномерно в интервале и не зависит от модулирующего сигнала и от шума. Характеристическая функция такого сигнала равна

    Разлагая экспоненту формуле Якоби-Энгера [выражение (13.20)], получаем

    Поскольку

    где мы получаем, что для амплитудно-модулированного синусоидального сигнала

    Корреляционную функцию отклика нелинейного устройства при подаче на вход его синусоидального сигнала и гауссовского шума можно теперь найти, подставляя (13.47) в (13.45). Определим функцию

    где и корреляционную функцию

    где осреднение производится по модулирующему сигналу; тогда корреляционная функция отклика будет равна

    Если как модулирующий сигнал, так и шум стационарны, то выражение (13.50) принимает вид

    Если входной сигнал представляет собой немодулированную синусоиду

    ибо в этом случае коэффициенты постоянны и равны друг другу.

    Составляющие сигнала и шума на выходе.

    Рассмотрим сейчас случай, когда шум на входе имеет форму смодулированной синусоиды. В этом случае корреляционная функция на выходе задается выражением (13.52). Разложим это выражение следующим образом:

    рассмотрим отдельные его слагаемые. Первое слагаемое соответствует постоянной составляющей на выходе устройства. Следующая группа слагаемых отвечает периодической части отклика и обусловлена в основном взаимодействием входного сигнала с самим собой. Остальные слагаемые соответствуют случайным колебаниям отклика, т. е. шуму на выходе. Те из

    этих оставшихся слагаемых, для которых обусловлены главным образом взаимодействием входного шума с самим собой, а те из них, для которых взаимодействием сигнала и шума на входе.

    Представим отклик нелинейного устройства в виде суммы среднего значения, периодических составляющих и случайной составляющей:

    Тогда корреляционная функция отклика может быть записана в виде

    где Сравнивая равенства (13.53) и (13.55), мы видим, что среднее значение отклика и амплитуды его периодических составляющих могут быть выражены непосредственно через коэффициенты

    Кроме того, корреляционною функцию случайной части отклика можно записать в виде

    где мы положим по определению в соответствии с (13.50)

    Следует отметить, что, строго говоря, все эти слагаемые являются функциями процесса, модулирующего входной сигнал.

    Решение вопроса о том, какие из -слагаемых в (13.62) определяют полезный выходной сигнал, зависит, конечно, от назначения нелинейного устройства. Если, например, устройство используется как детектор, то полезной является низкочастотная часть выходного сигнала. В этом случае полезному сигналу соответствует часть корреляционной функции, определяемая равенством

    С другой стороны, если устройство используется как нелинейный усилитель, то

    ибо в этом случае полезной является составляющая сигнала, сосредоточенная около несущей частоты входного сигнала

    Signals and linear systems. Correlation of signals

    Тема 6. Корреляция сигналов

    Предельный страх и предельный пыл храбрости одинаково расстраивают желудок и вызывают понос.

    Мишель Монтень. Французский юрист-мыслитель, XVI в.

    Вот это номер! Две функции имеют стопроцентную корреляцию с третьей и ортогональны друг другу. Ну и шуточки были у Всевышнего при сотворении Мира.

    Анатолий Пышминцев. Новосибирский геофизик Уральской школы, ХХ в.

    1. Автокорреляционные функции сигналов. Понятие автокорреляционных функций (АКФ). АКФ сигналов, ограниченных во времени. АКФ периодических сигналов. Функции автоковариации (ФАК). АКФ дискретных сигналов. АКФ зашумленных сигналов. АКФ кодовых сигналов.

    2. Взаимнокорреляционные функции сигналов (ВКФ). Взаимная корреляционная функция (ВКФ). Взаимная корреляция зашумленных сигналов. ВКФ дискретных сигналов.Оценка периодических сигналов в шуме. Функция взаимных корреляционных коэффициентов.

    3. Спектральные плотности корреляционных функций. Спектральная плотность АКФ. Интервал корреляции сигнала. Спектральная плотность ВКФ. Вычисление корреляционных функций при помощи БПФ.

    Введение

    Корреляция (correlation), и ее частный случай для центрированных сигналов – ковариация, является методом анализа сигналов. Приведем один из вариантов использования метода. Допустим, что имеется сигнал s(t), в котором может быть (а может и не быть) некоторая последовательность x(t) конечной длины Т, временное положение которой нас интересует. Для поиска этой последовательности в скользящем по сигналу s(t) временном окне длиной Т вычисляются скалярные произведения сигналов s(t) и x(t). Тем самым мы "прикладываем" искомый сигнал x(t) к сигналу s(t), скользя по его аргументу, и по величине скалярного произведения оцениваем степень сходства сигналов в точках сравнения.

    Корреляционный анализ дает возможность установить в сигналах (или в рядах цифровых данных сигналов) наличие определенной связи изменения значений сигналов по независимой переменной, то есть, когда большие значения одного сигнала (относительно средних значений сигнала) связаны с большими значениями другого сигнала (положительная корреляция), или, наоборот, малые значения одного сигнала связаны с большими значениями другого (отрицательная корреляция), или данные двух сигналов никак не связаны (нулевая корреляция).

    В функциональном пространстве сигналов эта степень связи может выражаться в нормированных единицах коэффициента корреляции, т.е. в косинусе угла между векторами сигналов, и, соответственно, будет принимать значения от 1 (полное совпадение сигналов) до -1 (полная противоположность) и не зависит от значения (масштаба) единиц измерений.

    В варианте автокорреляции (autocorrelation) по аналогичной методике производится определение скалярного произведения сигнала s(t) с собственной копией, скользящей по аргументу. Автокорреляция позволяет оценить среднестатистическую зависимость текущих отсчетов сигнала от своих предыдущих и последующих значений (так называемый радиус корреляции значений сигнала), а также выявить в сигнале наличие периодически повторяющихся элементов.

    Особое значение методы корреляции имеют при анализе случайных процессов для выявления неслучайных составляющих и оценки неслучайных параметров этих процессов.

    Заметим, что в терминах "корреляция" и "ковариация" существует некоторая путаница. В математической литературе термин "ковариация" применяется к центрированным функциям, а "корреляция" – к произвольным. В технической литературе, и особенно в литературе по сигналам и методам их обработки, часто применяется прямо противоположная терминология. Принципиального значения это не имеет, но при знакомстве с литературными источниками стоит обращать внимание на принятое назначение данных терминов.



    Загрузка...