ГЛАВА 7
АЛГОРИТМЫ ИДЕНТИФИКАЦИИ

7.1. СОСТАВЛЕНИЕ УРАВНЕНИЙ ИДЕНТИФИКАЦИИ


Обширный класс алгоритмов параметрической идентификации опирается на предположение о линейной связи искомых оценок параметров с исходными данными. Линейность самой модели объекта не имеет значения, пример дает уравнение ax2 = 1. При известном x найти параметр несложно, поскольку уравнение связи линейно относительно a. Линейные уравнения связи порождают частотные, дискретные и прочие методы описания систем, не следует искусственно сужать область применения обсуждаемых ниже алгоритмов частными моделями, носящими иллюстративный характер.

Технику составления уравнений идентификации обычно демонстрируют на той системе, что проще прочих, например, пусть

yk = a1yk–1 + a2yk–2 + … + b1uk–1 + b2uk–2….


Выделим идентифицируемые параметры в вектор θ = (b1, a1, …)T, тогда уравнение связи перепишется так

ZkTθ = yk,


где Zk = (uk–1, yk–1, …)T – регрессор, содержащий выборку данных.

Накапливая выборки измерений, получим матричное уравнение параметрического оценивания

Zθ = Y, Y=(y1 y2yk)T, Z = [Z1 Z2 … Zk]T.


При составлении регрессора следует учитывать, что не все параметры модели одинаково ценны. Например, коэффициенты a1, b1 иметь смысл считать более важными, чем параметры при дальних членах регрессии, коэффициент b1 несколько более важным, чем a1, поскольку он описывает связь выхода с входом неавтономной системы. Если «отстричь» bk, то уж решительно никак нельзя объяснить действие управления.

В вычислительной математике есть методы перестановки элементов, но многие процедуры идентификации не обладают этим полезным качеством. Правильное ранжирование облегчает построение рекурсивных алгоритмов, когда размерность объекта заранее неизвестна и ее предполагается определять, наращивая размер вектора параметров и оценивая невязку. Невязкой называется разность ξk = Zkθ – yk.

Действие шумов приводит к весьма противоречивым последствиям.

С одной стороны, если модель объекта верна, то система уравнений идентификации должна давать одну или даже множество оценок параметров.

С другой стороны, в силу невязок она становится несовместной, решить ее в строгом математическом смысле нельзя. Как ни странно, дистанция между недоопределенной и переопределенной задачами бывает невелика, об этом свидетельствует пример двух систем уравнений

11
11
θ1
θ2
=
1
1
,
11
11
θ1
θ2
=
1
1+ξ


которые отличаются между собой сколь угодно малой невязкой ξ. Как видно, первая система имеет неограниченное количество решений, тогда как вторая не имеет решения вообще. Противоположности нередко сходятся, поэтому имеет смысл поставить вопрос наследования несуществующего решения у близкой системы. В линейной алгебре эта парадоксальная проблема осознана давно, есть хорошо разработанный подход.

Напомним, что еще Гаусс предложил «решать» нерешаемую, в строгом смысле этого слова, задачу изменением ее постановки со стиранием границы между системами недоопределенными и переопределенными. Трансформация требования поиска решения системы линейных алгебраических уравнений к минимизации квадрата нормы разности ее левой и правой частей ||Zθ – Y||2 = (Zθ – Y)T(Zθ – Y) достигает поставленной цели. Эта идея носит название метод наименьших квадратов (МНК).

Градиент оптимизируемой квадратичной функции аналитически записывается в виде

grad ||Zθ – Y||2 = 2ZT(Zθ – Y)


Базовые уравнения МНК следуют из равенства нулю градиента. В итоге задача сводится к всегда имеющей решение системе, называемой системой нормальных уравнений (СНУ), вида

Pθ = R, P = ZTZ, R = ZTY.


В отличие от исходной системы, система нормальных уравнений совместна всегда: она может иметь одно, или множество решений. Квадратная матрица P – симметричная. Ее размер соответствует количеству искомых параметров независимо от объема выборки данных.

Rambler's Top100