Date post: | 12-Nov-2023 |
Category: |
Documents |
Upload: | independent |
View: | 0 times |
Download: | 0 times |
Автоматика и телемеханика, 8, 1999
Стохастические системы
УДК 681.513.6
c⃝ 1999 г. Н. Н. КАРАБУТОВ, д-р техн. наук(Московская государственная академия водного транспорта)
ИДЕНТИФИКАЦИЯ НЕОПРЕДЕЛЕННЫХ СИСТЕМ.II. ПОЛУЧЕНИЕ ПАРАМЕТРИЧЕСКИХ ОГРАНИЧЕНИЙ
Предложен подход к оценке параметрических ограничений и ограниченийна неопределенность в системе в условиях неполной информации. Рассмот-рена задача классификации мажорирующих решений динамической системыспециального вида. Получены модели и адаптивные алгоритмы для идентифи-кации верхней и нижней границ области параметрических ограничений. Иссле-дованы свойства адаптивной системы при несоблюдении условия возбуждениядля информационной матрицы системы.
1. Введение
Учет параметрических ограничений в задачах адаптивного управления нераз-рывно связан с проблемой робастности. Обычно при синтезе адаптивных системиспользуются параметрические ограничения, полученные на основе анализа априор-ной информации [1–4]. Такой же подход применяется при задании ограничений наструктурные возмущения в системе. В условиях априорной неопределенности такаяинформация, как правило, отсутствует. Проблеме получения апостериорных пара-метрических ограничений в условиях неопределенности уделялось большое внима-ние в работах по гарантированному оцениванию [5], исходя из информации о воз-мущениях. В [6] предложен метод синтеза моделей для оценки параметрическихограничений в условиях неопределенности на основе нахождения мажорирующихрешений для динамической системы [7], который в отличие от [5] не требует данныхо неконтролируемых возмущениях.
Ниже рассматривается задача формирования параметрических ограничений иограничений на неопределенность для непрерывной нестационарной динамическойсистемы с обобщенным входом на основе адаптивного подхода и развития резуль-татов, полученных в [6]. Данная работа продолжает цикл работ [8], посвященныхидентификации непрерывных неопределенных динамических систем.
2. Постановка задачи
Рассматривается непрерывная динамическая система, описываемая в простран-стве “вход-выход"системой уравнений
(1) y(t) = AT (t)P (t) − f(t, y, r, A),
(2) Pv(t) = KvPv(t) +Hv(t), v = y, r,
где r ∈ R, y ∈ R – вход и выход системы; A ∈ GA ⊆ R2m – вектор параметров;GA – ограниченная, но априори неизвестная область; P ∈ R2m – обобщенный вход,
P (t) =[y(t) ∣PT
y (t) ∣ r(t) ∣PTr (t)
]T, Py ∈ Rm−1, Pr ∈ Rm−1; Kv ∈ R2(m−1)×2(m−1) –
гурвицева матрица; f(t, y, r, A) – неопределенность; H ∈ R(m−1) – известный вектор.Пара (Kv, H) является управляемой. Предполагается, что при ∣r(t)∣ ⩽ ∞ ∣f(⋅) ⩽ �∀t ⩾ t0, где � ⩾ 0. Передаточная функция системы (1), (2) является положительнойдействительной.
85
Введение обобщенного входа P (t) (его еще называют регрессионным) связанос приведением динамической системы m-го порядка к идентификационной форме(неминимальная реализация) относительно выхода y ∈ R. P (t) включает в себя каксам вход r(t), так и выход системы y(t) и их преобразования Py(t), Pr(t), полу-ченные в результате пропускания y(t) и r(t) через систему (2). Отсюда названиевектора P (t).
О системе (1), (2) имеется информация Ip = {y(t), r(t) t ∈ J}, где J – интервалнаблюдения.
Ставится задача: на основе анализа информации Ip о функционировании систе-мы (1), (2) найти оценки для области GA и верхнюю границу для числа �.
3. Подход и модели для получения параметрических ограничений
Известно, что решение уравнения (1) имеет вид [7]
(3) y(t) = '(t, t0)y(t0) +
t∫
t0
'(t, s)(AT (s)P (s)− f(s)
)ds,
где '(t, t0) – переходная функция. Дискретный аналог уравнения (3):
(4) yn+1 = '((n+ 1)�, n�
)yn +
(n+1)�∫
n�
'(nΔt, s)(AT (s)P (s)− f(s)
)ds,
где � ⩾ 0 – интервал дискретизации, yn = y(n�). Из (4) получаем оценку
(5) ∣yn+1∣ ⩽ '((n+ 1)�, n�
)∣yn∣+
(n+1)�∫
n�
'(n�, s)(∥A(s)∥ ∥P (s)∥+ ∣f(s)∣
)ds,
где ∥P (t)∥ – норма вектора P (t) в соответствующем пространстве.
Неравенство (5) давно известно [7] и широко применяется в теоретических иссле-дованиях. Одним из достоинств оценки (5) является то, что она связывает междусобой элементы множества Ip, вектор A(t) и неопределенность f(t). Поэтому в даль-нейшем область GA будем представлять в виде
(6) GA ={A ∈ R2m : �b ⩽ ∥A(t)∥ ⩽ �t ∀t ⩾ t0
},
где �b = inft∥A(t)∥, �t = sup
t∥A(t)∥ являются границами области. Из допущений,
сделанных в разделе 2 относительно системы (1), (2), следует, что �t <∞.
Неравенство (5) затруднительно применять для идентификации границ облас-ти GA. Поставим в соответствие (5) некоторое уравнение, которое позволяло быиспользовать элементы множества Ip или их преобразования. Воспользуемся иде-ей мажорирующих уравнений (верхних и нижних), которые применяются в теорииустойчивости для построения систем сравнения [7]. Впервые эта идея для рассмат-риваемой задачи была предложена в [6].
Прежде, чем приводить мажорирующие уравнения, преобразуем элементы мно-жества Ip. Для каждого t ⩾ t∗ > t0 будем определять функции
#(t) = ∣y(t)∣, �(t) = ∥P (t)∥.
В результате получим множество Is = {#(t), �(t)}. Выделим в Is два подмноже-ства
(7) It ∪ Ib ⊆ Is,
где It ∩ Ib = ∅, It содержит “верхнее"значение функции #(t) и соответствующиеим �(t) для заданного t, Ib – “нижние"значения.
86
Для классификации множества Is на It и Ib введем некоторое число (порог) " > 0,которое можно выбирать как на основе анализа априорной информации Ia, так иопределять в результате обработки множества Is (в условиях неопределенности).Тогда алгоритм формирования множеств It, Ib примет вид
(8){#t(i) := #(t), �t(i) := �(t)} ∈ It, если #(t) > ",
∀t ⩾ t∗,{#b(j) := #(t), �b(j) := �(t)} ∈ Ib, если #(t) < ",
где i = 1,mt, j = 1,mb; mt, mb – соответственно мощность множеств It, Ib; t∗ –момент начала классификации функции #(t), �(t); := – знак присвоения.
Из процедуры (8) следует, что mt + mb < P(Is), где P(Is) – мощность множе-ства Is, что и отражает (7). Под мощностью множества Is понимается количествоэлементов.
Предположим, что � является достаточно малым и '(⋅) = �, � = const. Тогдаверхнее решение (T -решение) неравенства (5) с учетом (6) и (8) запишем в виде
(9) #t,n+1 = �t#t,n + bt(�t�t,n + �t),
где(n+1)�∫n�
'(n�, s)ds = bt. Аналогично получаем нижнее решение:
(10) #b,n+1 = �b#b,n + bb(�b�b,n + �b).
В дальнейшем для удобства ссылки (9) и (10) будем соответственно называть T - иℬ-системой.
Итак, задача получения параметрических ограничений GA для (1), (2) сведена коценке параметров T - и ℬ-системы. Прежде, чем переходить к синтезу адаптивныхалгоритмов, опишем процедуру получения порога.
4. Выбор порога " в алгоритме классификации (8)
Выражение (8) представляет собой детерминированный аналог стохастическогоалгоритма классификации [9], где " рассматривается как выборочное среднее ста-ционарного случайного процесса. В изложенной выше постановке " можно тракто-вать как сглаженное значение процесса #(t), поэтому " = "(t). Так как система (1),(2) является детерминированной, то подход, предложенный в [9], не применим.
Предлагаемая ниже процедура определения функции "(t) основана на двойномсглаживании сигналов. Сначала находится предварительная оценка "1(t) порога "(t)путем пропускания сигнала #(t) через сглаживающий фильтр:
"1(t) = ℱ"(t, #),
где ℱ" – оператор сглаживания. Для принятия решения о применении "1(t) в каче-стве пороговой функции в алгоритме (8) необходимо ввести некоторый критерий.Для этого сформируем функцию �(t) = #(t)− "1(t), которую пропустим через сгла-живающий фильтр с оператором ℱ� . В результате получим сигнал �(t) = ℱ�(t, �),который представляет собой ошибку работы фильтра ℱ"(t, #) (в статистической тео-рии в качестве критерия применяют вероятность ложных тревог). Далее определяемвеличину � = max
t∣�(t)∣ и проверяем условие (критерий):
(11) � ⩽ �",
где �" ⩾ 0 – некоторое число. Если условие (11) выполняется, то полагаем "(t) == "1(t), в противном случае производим коррекцию функции "1(t). Введем перемен-ную
! =
{0, � ⩽ �",1, � > �".
87
Рис. 1. Схема определения пороговой функции "(t)
Тогда для "(t) получим
"(t) = "1(t) + !�(t).
Заметим, что при неудачном выборе фильтра ℱ"(t, #) или ℱ�(t, �) описанная про-цедура может повторяться до тех пор, пока не будет выполняться (11). Схема про-цедуры показана на рис. 1.
5. Адаптивные алгоритмы оценивания
Для идентификации параметров T -системы применим модель
(12) #t,n+1 = �t,n#t,n + bt
(�t,n�t,n + �t,n
),
где #t,n+1 ∈ R – прогноз выхода T -системы; bt = � ; �t,n, �t,n – оценки параметровT -системы.
Заметим, что это одна из возможных моделей для оценки ограничений. Выборее структуры обусловлен упрощением реализации и необходимостью обеспечениямажорирующих свойств. Так как априори число �t в (9) неизвестно, то предлагаетсяполучать его значение в процессе адаптации.
Запишем уравнение для ошибки прогнозирования выхода T -системы:
(13) et,n+1 = #t,n+1 − #t,n+1 = �t,net,n + ��t,n#t,n + bt(��t,n�t,n + ��t,n
),
где ��t,n = �t,n − �t. Обозначим Ct,n =[�t,n, �t,n, �t,n
]T. Тогда для настройки
вектора параметров модели (12) применим алгоритм
(14) Ct,n+1 = Ct,n − Γtet,n+1Dt,n,
где Dt,n =[#t,n, �t,n, 1
]T, Γt ∈ R3 – диагональная матрица с ii > 0.
Оценивать параметры ℬ-системы будем с помощью модели
(15) #b,n+1 = �b,n#b,n + bb
(�b,n�b,n + �b,n
).
Алгоритм адаптации вектора Cb,n имеет вид
(16) Cb,n+1 = Cb,n − Γbeb,n+1Db,n,
где Cb,n, Db,n и Γb имеют тот же смысл, что и соответствующие векторы в (14).
Правило останова адаптивных алгоритмов имеет вид: ∣eq,n+1∣ ⩽ "q, где q = t, b,"q ⩾ 0. Класс систем, для которых применим предложенный подход, выделен вразделе 2.
88
6. Свойства адаптивной системы
Так как T - и ℬ-системы описываются уравнениями, имеющими одинаковую струк-туру, то в дальнейшем будем рассматривать систему
(17) en+1 = �en + �CTn Fn,
(18) �Cn+1 = �Cn − Γnen+1Fn,
где Fn =WDn, W = diag (1, b, b).
Сначала приведем общий результат для системы (17), (18). Предположим, чтоFn ∈ R3 принадлежит множеству P3(Fn, 0, 1), т.е. удовлетворяет условиям леммыидентифицируемости [8] с числами 0 < 0 < 1 <∞:
Fn ∈ P3(Fn, 0, 1) =
={Fn ∈ R3 : 0 < 3 3
√Det (Ln) ⩽ Sp (Ln) ⩽ 3�3(Ln) < 1 ∀n� ∈ J
},
где Ln = FnFTn ; Det (Ln), �3(Ln) – соответственно определитель и максимальное
собственное число матрицы Ln; Sp (Ln) – след матрицы Ln.
Пусть Vn = e2n, V Δn = ∥�Cn∥
2, Γn = nI3, n > 0, I3 ∈ R3 – единичная матрица, optn = argmin
n
(V Δn+1 − V Δ
n ). Тогда для системы (17), (18) справедлива
Т е о р е м а . Пусть выполняются условия: а) Fn ∈ P3(Fn, 0, 1); б) 0 < � < 1;в) sgn en+1 = sgn (�CT
n Fn); г) параметр n является таким, что 0 ⩽ n ⩽ 2 0,где 0 – некоторое число. Тогда все траектории системы (17), (18) ограничены исправедливы оценки
(19) V Δn+1 ⩽ �nV Δ
0 ,
(20) Vn+1 ⩽ � 2nV0 + � 1�n − � 2n
� − � 2V Δ0 ,
где � = 1− 0/ 1, � = 1 + 2� 2/�, � = 1− � 2.
Доказательство теоремы дано в Приложении.
Для системы (17), (18) вектор Fn /∈ P3(Fn, 0, 1), поэтому условия теоремы не
выполняются. Представим вектор Fn в виде: Fn =[FT1,n ∣ b
]T.
Сделаем следующие допущения относительно системы (17), (18).
Д о п у щ е н и е 1. Fn
[FT1,n ∣ b
]T, F1,n ∈ R2 и F1,n ∈ P2(F1,n, 01, 11).
Д о п у щ е н и е 2. Γn = 1I2+ 2, где + – знак прямой суммы матриц, 1, 2удовлетворяют условию г) теоремы.
Д о п у щ е н и е 3. Свойства системы (17), (18) исследуются при opt
1 , opt
2 , опре-деляемых из условия:
(21)( opt
1 , opt
2
)= argmin
1 2
(V Δn+1 − V Δ
n
).
Представим V Δn в виде: V Δ
n = V Δ1,n + V Δ
2,n, где V Δ1,n = ∥�C1,n∥
2 = ��2n + ��2n,
V Δ2,n = ��2
n.
С л е д с т в и е . При допущениях 1–3 для системы (17), (18) справедливы оценки
(22) V Δ1,n+1 ⩽ �n1 V
Δ1,0,
(23) V Δ2,n+1 ⩽ V Δ
2,0,
(24) Vn+1 ⩽ � 2nV0 + 2� 11�n1 − � 2n
�1 − � 2V Δ1,0 + 2�� 2(n−1)V Δ
2,0,
где �1 = 1− 01/ 11.
89
Из следствия следует, что в силу невыполнения условия Fn ∈ P3(Fn, 0, 1) при-менение алгоритма (18) с оптимальной матрицей Γn, удовлетворяющей условию (21),приводит к ограниченности решений {en, �Cn} системы (17), (18), но сходимостьобеспечивается только по части переменных, а именно по вектору �C1,n ⊂ �Cn. Ве-
личина ошибки ��n определяется только выбором начальных условий �0. Поэтомув случае сужения множества P3(Fn, 0, 1) до P2(F1,n, 01, 11) необходимо приме-нять алгоритм (18) с матрицей Γn, элементы которой отличаются от оптимальных
значений, полученных из условия (21). Так, при 1 = �1 opt
1 , 2 = �2 opt
2 для V Δn
справедлива оценка
(25) V Δn ⩽
(1− �(2�1 − �2
1))nV Δ1,0 + (�2 − 1)2nV Δ
2,0,
где � = 1− 01/ 11. Ограничения на �1, �2 нетрудно получить из (25).
7. Пример
Рассматривается динамическая система (1), (2) второго порядка с A(t) =
=[a1(t), a2(t), a3, a4
]T; a1(t) = −2+0,5 sin 0,9 t; a2(t) = 1+0,2 sin t; a3 = 1,5; a4 = 1,2.
Вход и неопределенность имеют вид: r(t) = 2,5+0,7 sin(3�t+0,7)+0,5 sin(0,5�t−2,3),
f(t) =
t∫
t0
AT (�)MP (�)d� =
t∫
t0
a2(�)py(�)d�.
Для настройки параметров моделей применялись алгоритмы (14), (16) с мат-рицами Γt = Γ1/∥Dt∥
2, Γb = Γ2/∥Db∥2, где ∥Db∥
2 – евклидова норма вектора Db,Γ1 = diag (0,35; 0,35; 0,0094), Γ2 = diag (0,26; 0,26; 0,013). Порог "(t) определялся наоснове анализа множества Is. Соответствующие результаты приведены на рис. 2, 3.
Рис. 2 отражает работу низкочастотных фильтров ℱ" с различной структурой посглаживанию процесса #(t): "1 – выход фильтра первого порядка с бесконечной им-пульсной характеристикой (БИХ); " – результат коррекции "1 на основе результатовсглаживания функции �(t) = #(t)−"1(t) с помощью фильтра ℱ� (рис. 3); применение
Рис. 2. Определение пороговой функции после примененияфильтра T" c различной структурой
90
Рис. 3. Изменение ошибки определения пороговой функции"(t) для фильтра с БИХ
Рис. 4. Настройка параметров �t, �b моделей (12), (15)
сглаживающих фильтров с конечной импульсной характеристикой (КИХ): "1,reg –выход фильтра с регрессионной структурой, "1,const – выход фильтра, параметрыкоторого выбирались на основе обработки вариационного ряда процесса #(t). Нарис. 3 приведены результаты определения ошибки работы низкочастотного фильтраc БИХ с помощью фильтра с КИХ ℱ� , имеющего регрессионную структуру. Вели-чина �" в (11) равнялась 0,25. Так как функция �1(t) = ℱ�(t, �1) не удовлетворяла
91
Рис. 5. Оценка параметра �t c помощью модели (12)
Рис. 6. Настройка параметров �t, �b
условию (11), то была осуществлена коррекция "1(t) в соответствии с алгоритмом,приведенным в разделе 4. Результирующая функция порога "(t) показана на рис. 2.Рис. 3 отражает также изменение ошибки �2(t) = ℱ�(t, �2) определения порога "(t),полученной с помощью регрессионного фильтра.
Результаты идентификации параметров T - и ℬ-систем представлены на рис. 4–7.Для идентификации использовались данные It, Ib, полученные в результате класси-фикации множества Is с применением фильтра с КИХ, параметры которого опреде-лялись на основе обработки вариационного ряда #(t). Рис. 4, 5 отражают результаты
настройки параметров �t(b), �t моделей (12), (15). Здесь же показаны интервальныеобласти изменения параметров T - и ℬ-моделей. Они определены на основе анализа
92
Рис. 7. Изменение ошибки идентификации T - и ℬ-систем ивыходов ℬ-системы и ℬ-модели
оценок �t, �b, �t, на интервале [tv, tvk ], где v = t, b. В некоторой степени эти областиявляются детерминированным аналогом доверительных интервалов, применяемыхв теории вероятности. Рис. 6 отражает процесс настройки параметра � для моде-лей (12) и (15). Адекватность работы полученных моделей иллюстрирует рис. 7, гдепоказано изменение относительной ошибки прогнозирования, а также выходы ℬ-модели и ℬ-системы. Из рис. 7 следует, что ошибка прогнозирования при больших tне превышает 2%.
8. Заключение
Предложен подход к оценке параметрических ограничений и ограничений нанеопределенность в условиях неопределенности. Получены модели и адаптивныеалгоритмы для идентификации верхней и нижней границ области параметрическихограничений. Исследованы свойства адаптивной системы при несоблюдении условиявозбуждения для информационной матрицы системы (1), (2).
ПРИЛОЖЕНИЕ
Д о к а з а т е л ь с т в о т е о р е мы . Рассмотрим функцию Ляпунова Ve,n = e2n. Дляпервой разности функции Ve,n
ΔVe,n+1 = −�Ve,n + 2�en�CTn Fn +
(�CT
n Fn
)2
справедлива оценка
(П.1) ΔVe,n+1 = −�Ve,n + 2�√Ve,nV Δ
n + �2nVΔn ,
где � = 1− � 2 > 0, 0 < � < 1, �n = ∥Fn∥2. Для Q = −�Ve,n +2�
√Ve,nV Δ
n с помощьюподхода, предложенного в [10], получаем
−�Ve,n + 2�√Ve,nV Δ
n ⩽ −�Ve,n + 2�2n�2V Δ
n /�.
Тогда (П.1) преобразуем к виду
ΔVe,n+1 ⩽ −�Ve,n + �2n(1 + 2� 2/�
)V Δn ,
93
откуда
(П.2) Ve,n+1 ⩽ � 2Ve,n + ��2nVΔn ,
где � = 1 + 2� 2/�.
Найдем оценку для V Δn . Если Fn ∈ P3(Fn, 0, 1), n определяется из условия
optn = argmin
n
(V Δn+1 − V Δ
n ) и выполняются предположения в) и г) теоремы, то
(П.3) V Δn ⩽ �nV Δ
0 ,
где � = 1 − 0/ 1. Так как � < 1, то V Δn < ∞. Изменяя в (П.2) n от n − 1 до 0 и
учитывая (П.3), неравенство для Ve,n+1 можно записать в виде
Ve,n+1 ⩽ � 2nVe,0 + � 1VΔ0
n∑
i=1
�i−1� 2(n−i).
Так какn∑
i=1
�i−1� 2(n−i) =�n − �2n
� − � 2,
то для Ve,n+1 получаем оценку (20), что и требовалось доказать.
Следствие из теоремы доказывается аналогично.
СПИСОК ЛИТЕРАТУРЫ
1. Kreisselmeier G. A robust indirect adaptive control approach // Int. J. Control. 1986.V. 43. No. 1. P. 161–175.
2. Tsakalis K., Ionnou P. A new indirect adaptive schemes for time-varying plants // IEEETrans. Autom. Control. 1990. V. AC-35. No. 6. P. 697–705.
3. Kreisselmeier G., Anderson B. Robust // IEEE Trans. Autom. Control. 1987.V. AC-31. No. 2. P. 127–133.
4. Kreisselmeier G., Narendra K. Stable model reference adaptive control in the presenceof bounder disturbances // IEEE Trans. Autom. Control. 1982. V. AC-27. No. 6. P. 1169–1175.
5. Куржанский А. Б. Задача идентификации – теория гарантированных оценок (об-зор) // АиТ. 1991. N∘ 4. C. 9–26.
6. Карабутов Н. Н., Сполысов М. А. Разработка алгоритма определения параметри-ческих ограничений в условиях неопределенности // Труды Mежд. научно-технич.семинара “Современные технологии в задачах управления и обработки информации.Алушта, 1996". М.: МАИ. 1996. C. 124–125.
7. Мартынюк А. А., Гутовски Р. Интегральные неравенства и устойчивость движе-ния. Киев: Наук. думка, 1979.
8. Карабутов Н. Н. Идентификация неопределенных систем. I // АиТ. 1997. N∘ 11.С. 118–130.
9. Левин Б. Р. Теоретические основы статистической радиотехники. Кн. 3. М.: Сов.радио, 1976.
10. Фрадков А. Л. Адаптивное управление в сложных системах. М.: Наука, 1990.
Статья представлена к публикации членом редколлегии В. А. Лотоцким.
Поступила в редакцию 21.05.98
94