Рекурсивный фильтр наименьших квадратов - Recursive least squares filter

Рекурсивный метод наименьших квадратов (RLS) является адаптивный фильтр алгоритм, рекурсивно находящий коэффициенты, которые минимизируют взвешенный линейный метод наименьших квадратов функция стоимости относящиеся к входным сигналам. Этот подход отличается от других алгоритмов, таких как наименьшие средние квадраты (LMS), которые направлены на сокращение среднеквадратичная ошибка. При выводе RLS входные сигналы учитываются детерминированный, а для LMS и аналогичного алгоритма они считаются стохастический. По сравнению с большинством своих конкурентов, RLS демонстрирует чрезвычайно быструю сходимость. Однако это преимущество достигается за счет высокой вычислительной сложности.

Мотивация

RLS был открыт Гаусс но оставался неиспользованным или игнорировался до 1950 года, когда Плакетт заново открыл оригинальную работу Гаусса с 1821 года. В общем, RLS можно использовать для решения любой проблемы, которая может быть решена с помощью адаптивные фильтры. Например, предположим, что сигнал передается по эху, шумный канал что приводит к его получению как

где представляет собой аддитивный шум. Назначение фильтра RLS - восстановить полезный сигнал. с помощью -нажмите FIR фильтр, :

где это вектор столбца содержащий самые последние образцы . Оценка восстановленного полезного сигнала

Цель - оценить параметры фильтра. , и каждый раз мы называем текущую оценку как и адаптированная оценка методом наименьших квадратов . также вектор-столбец, как показано ниже, а транспонировать, , это вектор строки. В матричный продукт (какой скалярное произведение из и ) является , скаляр. Оценка "хорошо" если небольшой по величине в некоторых наименьших квадратов смысл.

С течением времени желательно избегать полного повторения алгоритма наименьших квадратов, чтобы найти новую оценку для , с точки зрения .

Преимущество алгоритма RLS заключается в том, что нет необходимости инвертировать матрицы, тем самым экономя вычислительные затраты. Еще одно преимущество заключается в том, что он обеспечивает интуитивное понимание таких результатов, как Фильтр Калмана.

Обсуждение

Идея фильтров RLS состоит в том, чтобы минимизировать функция стоимости надлежащим образом подобрав коэффициенты фильтра , обновляя фильтр по мере поступления новых данных. Сигнал ошибки и желаемый сигнал определены в негативный отзыв диаграмма ниже:

AdaptiveFilter C.png

Ошибка неявно зависит от коэффициентов фильтра через оценку :

Функция взвешенных наименьших квадратов ошибок - функция затрат, которую мы хотим минимизировать, - являющаяся функцией поэтому также зависит от коэффициентов фильтра:

где это «фактор забвения», который придает экспоненциально меньший вес старым выборкам ошибок.

Функция стоимости минимизируется путем взятия частных производных для всех элементов вектора коэффициентов и обнуление результатов

Далее замените с определением сигнала ошибки

Преобразование уравнения дает

Эту форму можно выразить через матрицы

где взвешенный выборочная ковариация матрица для , и эквивалентная оценка для кросс-ковариация между и . На основе этого выражения находим коэффициенты, которые минимизируют функцию стоимости как

Это главный результат обсуждения.

Выбор

Меньший , тем меньше вклад предыдущих выборок в ковариационную матрицу. Это делает фильтр Больше чувствителен к недавним выборкам, что означает большие колебания коэффициентов фильтра. В дело упоминается как алгоритм растущего окна RLS. На практике, обычно выбирается между 0,98 и 1.[1] Используя оценку максимального правдоподобия типа II, оптимальная можно оценить на основе набора данных.[2]

Рекурсивный алгоритм

Обсуждение привело к единому уравнению для определения вектора коэффициентов, который минимизирует функцию стоимости. В этом разделе мы хотим получить рекурсивное решение вида

где поправочный коэффициент во времени . Мы начинаем вывод рекурсивного алгоритма с выражения кросс-ковариации с точки зрения

где это размерный вектор данных

Аналогично выражаем с точки зрения от

Для генерации вектора коэффициентов нас интересует инверсия детерминированной автоковариационной матрицы. Для этой задачи Тождество матрицы Вудбери пригодится. С участием

является -от-
является -by-1 (вектор-столбец)
1 к (вектор-строка)
это 1 на 1 единичная матрица

Матричное тождество Вудбери следует

Чтобы соответствовать стандартной литературе, мы определяем

где вектор усиления является

Прежде чем двигаться дальше, необходимо принести в другую форму

Вычитание второго члена в левой части дает

С рекурсивным определением желаемая форма следует

Теперь мы готовы завершить рекурсию. Как обсуждалось

Второй шаг следует из рекурсивного определения . Далее мы включаем рекурсивное определение вместе с альтернативной формой и получить

С участием мы приходим к уравнению обновления

где это априори ошибка. Сравните это с апостериорный ошибка; вычисленная ошибка после фильтр обновлен:

Значит, мы нашли поправочный коэффициент

Этот интуитивно удовлетворительный результат показывает, что поправочный коэффициент прямо пропорционален как ошибке, так и вектору усиления, который определяет желаемую чувствительность через весовой коэффициент, .

Резюме алгоритма RLS

Алгоритм RLS для пФильтр RLS -го порядка можно резюмировать как

Параметры: порядок фильтров
фактор забвения
значение для инициализации
Инициализация:,
,
где это единичная матрица ранга
Расчет:Для

.

Рекурсия для следует за Алгебраическое уравнение Риккати и таким образом проводит параллели с Фильтр Калмана.[3]

Решеточный рекурсивный фильтр наименьших квадратов (LRLS)

В Решетка рекурсивных наименьших квадратов адаптивный фильтр относится к стандартному RLS, за исключением того, что требует меньшего количества арифметических операций (порядок N). Он предлагает дополнительные преимущества по сравнению с обычными алгоритмами LMS, такими как более высокая скорость сходимости, модульная структура и нечувствительность к вариациям разброса собственных значений входной корреляционной матрицы. Описанный алгоритм LRLS основан на апостериорный ошибок и включает нормализованную форму. Вывод аналогичен стандартному алгоритму RLS и основан на определении . В случае прямого прогнозирования мы имеем с входным сигналом как самый актуальный образец. Случай обратного предсказания , где i - индекс выборки в прошлом, которую мы хотим спрогнозировать, а входной сигнал это самый последний образец.[4]

Сводка параметров

- коэффициент прямого отражения
коэффициент обратного отражения
представляет собой мгновенный апостериорный ошибка прогнозирования вперед
представляет собой мгновенный апостериорный ошибка обратного предсказания
минимальная ошибка обратного предсказания методом наименьших квадратов
минимальная ошибка прямого прогнозирования методом наименьших квадратов
коэффициент преобразования между априори и апостериорный ошибки
- коэффициенты множителя с прямой связью.
небольшая положительная константа, которая может быть 0,01

Сводка алгоритма LRLS

Алгоритм LRLS-фильтра можно резюмировать как

Инициализация:
Для i = 0,1, ..., N
  (если x (k) = 0 для k <0)
 
 
 
Конец
Расчет:
Для k ≥ 0
 
 
 
 
 Для i = 0,1, ..., N
 
 
 
 
 
 
 
 
 Упреждающая фильтрация
 
 
 
 Конец
Конец

Нормализованный решетчатый рекурсивный фильтр наименьших квадратов (NLRLS)

Нормализованная форма LRLS имеет меньше рекурсий и переменных. Его можно вычислить, применив нормализацию к внутренним переменным алгоритма, при этом их величина останется ограниченной единицей. Обычно это не используется в приложениях реального времени из-за большого количества операций деления и извлечения квадратного корня, что связано с высокой вычислительной нагрузкой.

Резюме алгоритма NLRLS

Алгоритм для фильтра NLRLS можно резюмировать как

Инициализация:
Для i = 0,1, ..., N
  (если x (k) = d (k) = 0 для k <0)
 
 
Конец
 
Расчет:
Для k ≥ 0
  (Энергия входного сигнала)
  (Энергия сигнала ссылка)
 
 
 Для i = 0,1, ..., N
 
 
 
 Упреждающий фильтр
 
 
 Конец
Конец

Смотрите также

использованная литература

  • Хейс, Монсон Х. (1996). «9.4: Рекурсивные наименьшие квадраты». Статистическая цифровая обработка сигналов и моделирование. Вайли. п. 541. ISBN  0-471-59431-8.
  • Саймон Хайкин, Теория адаптивного фильтра, Прентис Холл, 2002 г., ISBN  0-13-048434-2
  • М.Х. А. Дэвис, Р. Б. Винтер, Стохастическое моделирование и управление, Спрингер, 1985, ISBN  0-412-16200-8
  • Вайфенг Лю, Хосе Принсипи и Саймон Хайкин, Адаптивная фильтрация ядра: всестороннее введение, Джон Вили, 2010, ISBN  0-470-44753-2
  • Р. Л. Плакетт, Некоторые теоремы о наименьших квадратах, Биометрика, 1950, 37, 149-157, ISSN  0006-3444
  • К. Ф. Гаусс, Комбинация теории и наблюдения erroribus minimis obnoxiae, 1821, Werke, 4. Gottinge

Заметки

  1. ^ Эманнуаль К. Ифакор, Барри В. Джервис. Цифровая обработка сигналов: практический подход, второе издание. Индианаполис: Pearson Education Limited, 2002, стр. 718
  2. ^ Стивен Ван Вэренберг, Игнасио Сантамария, Мигель Ласаро-Гредилья «Оценка фактора забывания в ядерных рекурсивных методах наименьших квадратов», 2012 IEEE International Workshop on Machine Learning for Signal Processing, 2012, по состоянию на 23 июня 2016 г.
  3. ^ Уэлч, Грег и Бишоп, Гэри "Введение в фильтр Калмана", Департамент компьютерных наук, Университет Северной Каролины в Чапел-Хилл, 17 сентября 1997 г., по состоянию на 19 июля 2011 г.
  4. ^ Альбу, Кадлец, Софтли, Матушек, Херманек, Коулман, Фаган «Реализация (нормализованной) решетки СБН на Virtex», Digital Signal Processing, 2001, по состоянию на 24 декабря 2011 г.