Рекурсивный фильтр наименьших квадратов - Recursive least squares filter
Рекурсивный метод наименьших квадратов (RLS) является адаптивный фильтр алгоритм, рекурсивно находящий коэффициенты, которые минимизируют взвешенный линейный метод наименьших квадратовфункция стоимости относящиеся к входным сигналам. Этот подход отличается от других алгоритмов, таких как наименьшие средние квадраты (LMS), которые направлены на сокращение среднеквадратичная ошибка. При выводе RLS входные сигналы учитываются детерминированный, а для LMS и аналогичного алгоритма они считаются стохастический. По сравнению с большинством своих конкурентов, RLS демонстрирует чрезвычайно быструю сходимость. Однако это преимущество достигается за счет высокой вычислительной сложности.
RLS был открыт Гаусс но оставался неиспользованным или игнорировался до 1950 года, когда Плакетт заново открыл оригинальную работу Гаусса с 1821 года. В общем, RLS можно использовать для решения любой проблемы, которая может быть решена с помощью адаптивные фильтры. Например, предположим, что сигнал передается по эху, шумный канал что приводит к его получению как
где представляет собой аддитивный шум. Назначение фильтра RLS - восстановить полезный сигнал. с помощью -нажмите FIR фильтр, :
где это вектор столбца содержащий самые последние образцы . Оценка восстановленного полезного сигнала
Цель - оценить параметры фильтра. , и каждый раз мы называем текущую оценку как и адаптированная оценка методом наименьших квадратов . также вектор-столбец, как показано ниже, а транспонировать, , это вектор строки. В матричный продукт (какой скалярное произведение из и ) является , скаляр. Оценка "хорошо" если небольшой по величине в некоторых наименьших квадратов смысл.
С течением времени желательно избегать полного повторения алгоритма наименьших квадратов, чтобы найти новую оценку для , с точки зрения .
Преимущество алгоритма RLS заключается в том, что нет необходимости инвертировать матрицы, тем самым экономя вычислительные затраты. Еще одно преимущество заключается в том, что он обеспечивает интуитивное понимание таких результатов, как Фильтр Калмана.
Обсуждение
Идея фильтров RLS состоит в том, чтобы минимизировать функция стоимости надлежащим образом подобрав коэффициенты фильтра , обновляя фильтр по мере поступления новых данных. Сигнал ошибки и желаемый сигнал определены в негативный отзыв диаграмма ниже:
Ошибка неявно зависит от коэффициентов фильтра через оценку :
Функция взвешенных наименьших квадратов ошибок - функция затрат, которую мы хотим минимизировать, - являющаяся функцией поэтому также зависит от коэффициентов фильтра:
где это «фактор забвения», который придает экспоненциально меньший вес старым выборкам ошибок.
Функция стоимости минимизируется путем взятия частных производных для всех элементов вектора коэффициентов и обнуление результатов
Далее замените с определением сигнала ошибки
Преобразование уравнения дает
Эту форму можно выразить через матрицы
где взвешенный выборочная ковариация матрица для , и эквивалентная оценка для кросс-ковариация между и . На основе этого выражения находим коэффициенты, которые минимизируют функцию стоимости как
Это главный результат обсуждения.
Выбор
Меньший , тем меньше вклад предыдущих выборок в ковариационную матрицу. Это делает фильтр Больше чувствителен к недавним выборкам, что означает большие колебания коэффициентов фильтра. В дело упоминается как алгоритм растущего окна RLS. На практике, обычно выбирается между 0,98 и 1.[1] Используя оценку максимального правдоподобия типа II, оптимальная можно оценить на основе набора данных.[2]
Рекурсивный алгоритм
Обсуждение привело к единому уравнению для определения вектора коэффициентов, который минимизирует функцию стоимости. В этом разделе мы хотим получить рекурсивное решение вида
где поправочный коэффициент во времени . Мы начинаем вывод рекурсивного алгоритма с выражения кросс-ковариации с точки зрения
где это размерный вектор данных
Аналогично выражаем с точки зрения от
Для генерации вектора коэффициентов нас интересует инверсия детерминированной автоковариационной матрицы. Для этой задачи Тождество матрицы Вудбери пригодится. С участием
Чтобы соответствовать стандартной литературе, мы определяем
где вектор усиления является
Прежде чем двигаться дальше, необходимо принести в другую форму
Вычитание второго члена в левой части дает
С рекурсивным определением желаемая форма следует
Теперь мы готовы завершить рекурсию. Как обсуждалось
Второй шаг следует из рекурсивного определения . Далее мы включаем рекурсивное определение вместе с альтернативной формой и получить
С участием мы приходим к уравнению обновления
где это априори ошибка. Сравните это с апостериорный ошибка; вычисленная ошибка после фильтр обновлен:
Значит, мы нашли поправочный коэффициент
Этот интуитивно удовлетворительный результат показывает, что поправочный коэффициент прямо пропорционален как ошибке, так и вектору усиления, который определяет желаемую чувствительность через весовой коэффициент, .
Резюме алгоритма RLS
Алгоритм RLS для пФильтр RLS -го порядка можно резюмировать как
В Решетка рекурсивных наименьших квадратовадаптивный фильтр относится к стандартному RLS, за исключением того, что требует меньшего количества арифметических операций (порядок N). Он предлагает дополнительные преимущества по сравнению с обычными алгоритмами LMS, такими как более высокая скорость сходимости, модульная структура и нечувствительность к вариациям разброса собственных значений входной корреляционной матрицы. Описанный алгоритм LRLS основан на апостериорный ошибок и включает нормализованную форму. Вывод аналогичен стандартному алгоритму RLS и основан на определении . В случае прямого прогнозирования мы имеем с входным сигналом как самый актуальный образец. Случай обратного предсказания , где i - индекс выборки в прошлом, которую мы хотим спрогнозировать, а входной сигнал это самый последний образец.[4]
Сводка параметров
- коэффициент прямого отражения
коэффициент обратного отражения
представляет собой мгновенный апостериорный ошибка прогнозирования вперед
представляет собой мгновенный апостериорный ошибка обратного предсказания
минимальная ошибка обратного предсказания методом наименьших квадратов
минимальная ошибка прямого прогнозирования методом наименьших квадратов
коэффициент преобразования между априори и апостериорный ошибки
- коэффициенты множителя с прямой связью.
небольшая положительная константа, которая может быть 0,01
Нормализованная форма LRLS имеет меньше рекурсий и переменных. Его можно вычислить, применив нормализацию к внутренним переменным алгоритма, при этом их величина останется ограниченной единицей. Обычно это не используется в приложениях реального времени из-за большого количества операций деления и извлечения квадратного корня, что связано с высокой вычислительной нагрузкой.
^Уэлч, Грег и Бишоп, Гэри "Введение в фильтр Калмана", Департамент компьютерных наук, Университет Северной Каролины в Чапел-Хилл, 17 сентября 1997 г., по состоянию на 19 июля 2011 г.