+ All Categories
Home > Documents > IDENTIFICATION OF UNCERTAIN SYSTEMS. II. RECEIVING PARAMETRICAL RESTRICTIONS

IDENTIFICATION OF UNCERTAIN SYSTEMS. II. RECEIVING PARAMETRICAL RESTRICTIONS

Date post: 12-Nov-2023
Category:
Upload: independent
View: 0 times
Download: 0 times
Share this document with a friend
10
Автоматика и телемеханика, 8, 1999 Стохастические системы УДК 681.513.6 c 1999 г. Н. Н. КАРАБУТОВ, д-р техн. наук (Московская государственная академия водного транспорта) ИДЕНТИФИКАЦИЯ НЕОПРЕДЕЛЕННЫХ СИСТЕМ. II. ПОЛУЧЕНИЕ ПАРАМЕТРИЧЕСКИХ ОГРАНИЧЕНИЙ Предложен подход к оценке параметрических ограничений и ограничений на неопределенность в системе в условиях неполной информации. Рассмот- рена задача классификации мажорирующих решений динамической системы специального вида. Получены модели и адаптивные алгоритмы для идентифи- кации верхней и нижней границ области параметрических ограничений. Иссле- дованы свойства адаптивной системы при несоблюдении условия возбуждения для информационной матрицы системы. 1. Введение Учет параметрических ограничений в задачах адаптивного управления нераз- рывно связан с проблемой робастности. Обычно при синтезе адаптивных систем используются параметрические ограничения, полученные на основе анализа априор- ной информации [1–4]. Такой же подход применяется при задании ограничений на структурные возмущения в системе. В условиях априорной неопределенности такая информация, как правило, отсутствует. Проблеме получения апостериорных пара- метрических ограничений в условиях неопределенности уделялось большое внима- ние в работах по гарантированному оцениванию [5], исходя из информации о воз- мущениях. В [6] предложен метод синтеза моделей для оценки параметрических ограничений в условиях неопределенности на основе нахождения мажорирующих решений для динамической системы [7], который в отличие от [5] не требует данных о неконтролируемых возмущениях. Ниже рассматривается задача формирования параметрических ограничений и ограничений на неопределенность для непрерывной нестационарной динамической системы с обобщенным входом на основе адаптивного подхода и развития резуль- татов, полученных в [6]. Данная работа продолжает цикл работ [8], посвященных идентификации непрерывных неопределенных динамических систем. 2. Постановка задачи Рассматривается непрерывная динамическая система, описываемая в простран- стве “вход-выход"системой уравнений (1) ˙ ()= () () (,,,), (2) ˙ ()= ()+ (), = ,, где , – вход и выход системы; 2 – вектор параметров; – ограниченная, но априори неизвестная область; 2 – обобщенный вход, ()= () () () () , 1 , 1 ; 2(1)×2(1) гурвицева матрица; (,,,) – неопределенность; (1) – известный вектор. Пара ( , ) является управляемой. Предполагается, что при ()∞∣ () 0 , где 0. Передаточная функция системы (1), (2) является положительной действительной. 85
Transcript

Автоматика и телемеханика, 8, 1999

Стохастические системы

УДК 681.513.6

c⃝ 1999 г. Н. Н. КАРАБУТОВ, д-р техн. наук(Московская государственная академия водного транспорта)

ИДЕНТИФИКАЦИЯ НЕОПРЕДЕЛЕННЫХ СИСТЕМ.II. ПОЛУЧЕНИЕ ПАРАМЕТРИЧЕСКИХ ОГРАНИЧЕНИЙ

Предложен подход к оценке параметрических ограничений и ограниченийна неопределенность в системе в условиях неполной информации. Рассмот-рена задача классификации мажорирующих решений динамической системыспециального вида. Получены модели и адаптивные алгоритмы для идентифи-кации верхней и нижней границ области параметрических ограничений. Иссле-дованы свойства адаптивной системы при несоблюдении условия возбуждениядля информационной матрицы системы.

1. Введение

Учет параметрических ограничений в задачах адаптивного управления нераз-рывно связан с проблемой робастности. Обычно при синтезе адаптивных системиспользуются параметрические ограничения, полученные на основе анализа априор-ной информации [1–4]. Такой же подход применяется при задании ограничений наструктурные возмущения в системе. В условиях априорной неопределенности такаяинформация, как правило, отсутствует. Проблеме получения апостериорных пара-метрических ограничений в условиях неопределенности уделялось большое внима-ние в работах по гарантированному оцениванию [5], исходя из информации о воз-мущениях. В [6] предложен метод синтеза моделей для оценки параметрическихограничений в условиях неопределенности на основе нахождения мажорирующихрешений для динамической системы [7], который в отличие от [5] не требует данныхо неконтролируемых возмущениях.

Ниже рассматривается задача формирования параметрических ограничений иограничений на неопределенность для непрерывной нестационарной динамическойсистемы с обобщенным входом на основе адаптивного подхода и развития резуль-татов, полученных в [6]. Данная работа продолжает цикл работ [8], посвященныхидентификации непрерывных неопределенных динамических систем.

2. Постановка задачи

Рассматривается непрерывная динамическая система, описываемая в простран-стве “вход-выход"системой уравнений

(1) y(t) = AT (t)P (t) − f(t, y, r, A),

(2) Pv(t) = KvPv(t) +Hv(t), v = y, r,

где r ∈ R, y ∈ R – вход и выход системы; A ∈ GA ⊆ R2m – вектор параметров;GA – ограниченная, но априори неизвестная область; P ∈ R2m – обобщенный вход,

P (t) =[y(t) ∣PT

y (t) ∣ r(t) ∣PTr (t)

]T, Py ∈ Rm−1, Pr ∈ Rm−1; Kv ∈ R2(m−1)×2(m−1) –

гурвицева матрица; f(t, y, r, A) – неопределенность; H ∈ R(m−1) – известный вектор.Пара (Kv, H) является управляемой. Предполагается, что при ∣r(t)∣ ⩽ ∞ ∣f(⋅) ⩽ �∀t ⩾ t0, где � ⩾ 0. Передаточная функция системы (1), (2) является положительнойдействительной.

85

Введение обобщенного входа P (t) (его еще называют регрессионным) связанос приведением динамической системы m-го порядка к идентификационной форме(неминимальная реализация) относительно выхода y ∈ R. P (t) включает в себя каксам вход r(t), так и выход системы y(t) и их преобразования Py(t), Pr(t), полу-ченные в результате пропускания y(t) и r(t) через систему (2). Отсюда названиевектора P (t).

О системе (1), (2) имеется информация Ip = {y(t), r(t) t ∈ J}, где J – интервалнаблюдения.

Ставится задача: на основе анализа информации Ip о функционировании систе-мы (1), (2) найти оценки для области GA и верхнюю границу для числа �.

3. Подход и модели для получения параметрических ограничений

Известно, что решение уравнения (1) имеет вид [7]

(3) y(t) = '(t, t0)y(t0) +

t∫

t0

'(t, s)(AT (s)P (s)− f(s)

)ds,

где '(t, t0) – переходная функция. Дискретный аналог уравнения (3):

(4) yn+1 = '((n+ 1)�, n�

)yn +

(n+1)�∫

n�

'(nΔt, s)(AT (s)P (s)− f(s)

)ds,

где � ⩾ 0 – интервал дискретизации, yn = y(n�). Из (4) получаем оценку

(5) ∣yn+1∣ ⩽ '((n+ 1)�, n�

)∣yn∣+

(n+1)�∫

n�

'(n�, s)(∥A(s)∥ ∥P (s)∥+ ∣f(s)∣

)ds,

где ∥P (t)∥ – норма вектора P (t) в соответствующем пространстве.

Неравенство (5) давно известно [7] и широко применяется в теоретических иссле-дованиях. Одним из достоинств оценки (5) является то, что она связывает междусобой элементы множества Ip, вектор A(t) и неопределенность f(t). Поэтому в даль-нейшем область GA будем представлять в виде

(6) GA ={A ∈ R2m : �b ⩽ ∥A(t)∥ ⩽ �t ∀t ⩾ t0

},

где �b = inft∥A(t)∥, �t = sup

t∥A(t)∥ являются границами области. Из допущений,

сделанных в разделе 2 относительно системы (1), (2), следует, что �t <∞.

Неравенство (5) затруднительно применять для идентификации границ облас-ти GA. Поставим в соответствие (5) некоторое уравнение, которое позволяло быиспользовать элементы множества Ip или их преобразования. Воспользуемся иде-ей мажорирующих уравнений (верхних и нижних), которые применяются в теорииустойчивости для построения систем сравнения [7]. Впервые эта идея для рассмат-риваемой задачи была предложена в [6].

Прежде, чем приводить мажорирующие уравнения, преобразуем элементы мно-жества Ip. Для каждого t ⩾ t∗ > t0 будем определять функции

#(t) = ∣y(t)∣, �(t) = ∥P (t)∥.

В результате получим множество Is = {#(t), �(t)}. Выделим в Is два подмноже-ства

(7) It ∪ Ib ⊆ Is,

где It ∩ Ib = ∅, It содержит “верхнее"значение функции #(t) и соответствующиеим �(t) для заданного t, Ib – “нижние"значения.

86

Для классификации множества Is на It и Ib введем некоторое число (порог) " > 0,которое можно выбирать как на основе анализа априорной информации Ia, так иопределять в результате обработки множества Is (в условиях неопределенности).Тогда алгоритм формирования множеств It, Ib примет вид

(8){#t(i) := #(t), �t(i) := �(t)} ∈ It, если #(t) > ",

∀t ⩾ t∗,{#b(j) := #(t), �b(j) := �(t)} ∈ Ib, если #(t) < ",

где i = 1,mt, j = 1,mb; mt, mb – соответственно мощность множеств It, Ib; t∗ –момент начала классификации функции #(t), �(t); := – знак присвоения.

Из процедуры (8) следует, что mt + mb < P(Is), где P(Is) – мощность множе-ства Is, что и отражает (7). Под мощностью множества Is понимается количествоэлементов.

Предположим, что � является достаточно малым и '(⋅) = �, � = const. Тогдаверхнее решение (T -решение) неравенства (5) с учетом (6) и (8) запишем в виде

(9) #t,n+1 = �t#t,n + bt(�t�t,n + �t),

где(n+1)�∫n�

'(n�, s)ds = bt. Аналогично получаем нижнее решение:

(10) #b,n+1 = �b#b,n + bb(�b�b,n + �b).

В дальнейшем для удобства ссылки (9) и (10) будем соответственно называть T - иℬ-системой.

Итак, задача получения параметрических ограничений GA для (1), (2) сведена коценке параметров T - и ℬ-системы. Прежде, чем переходить к синтезу адаптивныхалгоритмов, опишем процедуру получения порога.

4. Выбор порога " в алгоритме классификации (8)

Выражение (8) представляет собой детерминированный аналог стохастическогоалгоритма классификации [9], где " рассматривается как выборочное среднее ста-ционарного случайного процесса. В изложенной выше постановке " можно тракто-вать как сглаженное значение процесса #(t), поэтому " = "(t). Так как система (1),(2) является детерминированной, то подход, предложенный в [9], не применим.

Предлагаемая ниже процедура определения функции "(t) основана на двойномсглаживании сигналов. Сначала находится предварительная оценка "1(t) порога "(t)путем пропускания сигнала #(t) через сглаживающий фильтр:

"1(t) = ℱ"(t, #),

где ℱ" – оператор сглаживания. Для принятия решения о применении "1(t) в каче-стве пороговой функции в алгоритме (8) необходимо ввести некоторый критерий.Для этого сформируем функцию �(t) = #(t)− "1(t), которую пропустим через сгла-живающий фильтр с оператором ℱ� . В результате получим сигнал �(t) = ℱ�(t, �),который представляет собой ошибку работы фильтра ℱ"(t, #) (в статистической тео-рии в качестве критерия применяют вероятность ложных тревог). Далее определяемвеличину � = max

t∣�(t)∣ и проверяем условие (критерий):

(11) � ⩽ �",

где �" ⩾ 0 – некоторое число. Если условие (11) выполняется, то полагаем "(t) == "1(t), в противном случае производим коррекцию функции "1(t). Введем перемен-ную

! =

{0, � ⩽ �",1, � > �".

87

Рис. 1. Схема определения пороговой функции "(t)

Тогда для "(t) получим

"(t) = "1(t) + !�(t).

Заметим, что при неудачном выборе фильтра ℱ"(t, #) или ℱ�(t, �) описанная про-цедура может повторяться до тех пор, пока не будет выполняться (11). Схема про-цедуры показана на рис. 1.

5. Адаптивные алгоритмы оценивания

Для идентификации параметров T -системы применим модель

(12) #t,n+1 = �t,n#t,n + bt

(�t,n�t,n + �t,n

),

где #t,n+1 ∈ R – прогноз выхода T -системы; bt = � ; �t,n, �t,n – оценки параметровT -системы.

Заметим, что это одна из возможных моделей для оценки ограничений. Выборее структуры обусловлен упрощением реализации и необходимостью обеспечениямажорирующих свойств. Так как априори число �t в (9) неизвестно, то предлагаетсяполучать его значение в процессе адаптации.

Запишем уравнение для ошибки прогнозирования выхода T -системы:

(13) et,n+1 = #t,n+1 − #t,n+1 = �t,net,n + ��t,n#t,n + bt(��t,n�t,n + ��t,n

),

где ��t,n = �t,n − �t. Обозначим Ct,n =[�t,n, �t,n, �t,n

]T. Тогда для настройки

вектора параметров модели (12) применим алгоритм

(14) Ct,n+1 = Ct,n − Γtet,n+1Dt,n,

где Dt,n =[#t,n, �t,n, 1

]T, Γt ∈ R3 – диагональная матрица с ii > 0.

Оценивать параметры ℬ-системы будем с помощью модели

(15) #b,n+1 = �b,n#b,n + bb

(�b,n�b,n + �b,n

).

Алгоритм адаптации вектора Cb,n имеет вид

(16) Cb,n+1 = Cb,n − Γbeb,n+1Db,n,

где Cb,n, Db,n и Γb имеют тот же смысл, что и соответствующие векторы в (14).

Правило останова адаптивных алгоритмов имеет вид: ∣eq,n+1∣ ⩽ "q, где q = t, b,"q ⩾ 0. Класс систем, для которых применим предложенный подход, выделен вразделе 2.

88

6. Свойства адаптивной системы

Так как T - и ℬ-системы описываются уравнениями, имеющими одинаковую струк-туру, то в дальнейшем будем рассматривать систему

(17) en+1 = �en + �CTn Fn,

(18) �Cn+1 = �Cn − Γnen+1Fn,

где Fn =WDn, W = diag (1, b, b).

Сначала приведем общий результат для системы (17), (18). Предположим, чтоFn ∈ R3 принадлежит множеству P3(Fn, 0, 1), т.е. удовлетворяет условиям леммыидентифицируемости [8] с числами 0 < 0 < 1 <∞:

Fn ∈ P3(Fn, 0, 1) =

={Fn ∈ R3 : 0 < 3 3

√Det (Ln) ⩽ Sp (Ln) ⩽ 3�3(Ln) < 1 ∀n� ∈ J

},

где Ln = FnFTn ; Det (Ln), �3(Ln) – соответственно определитель и максимальное

собственное число матрицы Ln; Sp (Ln) – след матрицы Ln.

Пусть Vn = e2n, V Δn = ∥�Cn∥

2, Γn = nI3, n > 0, I3 ∈ R3 – единичная матрица, optn = argmin

n

(V Δn+1 − V Δ

n ). Тогда для системы (17), (18) справедлива

Т е о р е м а . Пусть выполняются условия: а) Fn ∈ P3(Fn, 0, 1); б) 0 < � < 1;в) sgn en+1 = sgn (�CT

n Fn); г) параметр n является таким, что 0 ⩽ n ⩽ 2 0,где 0 – некоторое число. Тогда все траектории системы (17), (18) ограничены исправедливы оценки

(19) V Δn+1 ⩽ �nV Δ

0 ,

(20) Vn+1 ⩽ � 2nV0 + � 1�n − � 2n

� − � 2V Δ0 ,

где � = 1− 0/ 1, � = 1 + 2� 2/�, � = 1− � 2.

Доказательство теоремы дано в Приложении.

Для системы (17), (18) вектор Fn /∈ P3(Fn, 0, 1), поэтому условия теоремы не

выполняются. Представим вектор Fn в виде: Fn =[FT1,n ∣ b

]T.

Сделаем следующие допущения относительно системы (17), (18).

Д о п у щ е н и е 1. Fn

[FT1,n ∣ b

]T, F1,n ∈ R2 и F1,n ∈ P2(F1,n, 01, 11).

Д о п у щ е н и е 2. Γn = 1I2+ 2, где + – знак прямой суммы матриц, 1, 2удовлетворяют условию г) теоремы.

Д о п у щ е н и е 3. Свойства системы (17), (18) исследуются при opt

1 , opt

2 , опре-деляемых из условия:

(21)( opt

1 , opt

2

)= argmin

1 2

(V Δn+1 − V Δ

n

).

Представим V Δn в виде: V Δ

n = V Δ1,n + V Δ

2,n, где V Δ1,n = ∥�C1,n∥

2 = ��2n + ��2n,

V Δ2,n = ��2

n.

С л е д с т в и е . При допущениях 1–3 для системы (17), (18) справедливы оценки

(22) V Δ1,n+1 ⩽ �n1 V

Δ1,0,

(23) V Δ2,n+1 ⩽ V Δ

2,0,

(24) Vn+1 ⩽ � 2nV0 + 2� 11�n1 − � 2n

�1 − � 2V Δ1,0 + 2�� 2(n−1)V Δ

2,0,

где �1 = 1− 01/ 11.

89

Из следствия следует, что в силу невыполнения условия Fn ∈ P3(Fn, 0, 1) при-менение алгоритма (18) с оптимальной матрицей Γn, удовлетворяющей условию (21),приводит к ограниченности решений {en, �Cn} системы (17), (18), но сходимостьобеспечивается только по части переменных, а именно по вектору �C1,n ⊂ �Cn. Ве-

личина ошибки ��n определяется только выбором начальных условий �0. Поэтомув случае сужения множества P3(Fn, 0, 1) до P2(F1,n, 01, 11) необходимо приме-нять алгоритм (18) с матрицей Γn, элементы которой отличаются от оптимальных

значений, полученных из условия (21). Так, при 1 = �1 opt

1 , 2 = �2 opt

2 для V Δn

справедлива оценка

(25) V Δn ⩽

(1− �(2�1 − �2

1))nV Δ1,0 + (�2 − 1)2nV Δ

2,0,

где � = 1− 01/ 11. Ограничения на �1, �2 нетрудно получить из (25).

7. Пример

Рассматривается динамическая система (1), (2) второго порядка с A(t) =

=[a1(t), a2(t), a3, a4

]T; a1(t) = −2+0,5 sin 0,9 t; a2(t) = 1+0,2 sin t; a3 = 1,5; a4 = 1,2.

Вход и неопределенность имеют вид: r(t) = 2,5+0,7 sin(3�t+0,7)+0,5 sin(0,5�t−2,3),

f(t) =

t∫

t0

AT (�)MP (�)d� =

t∫

t0

a2(�)py(�)d�.

Для настройки параметров моделей применялись алгоритмы (14), (16) с мат-рицами Γt = Γ1/∥Dt∥

2, Γb = Γ2/∥Db∥2, где ∥Db∥

2 – евклидова норма вектора Db,Γ1 = diag (0,35; 0,35; 0,0094), Γ2 = diag (0,26; 0,26; 0,013). Порог "(t) определялся наоснове анализа множества Is. Соответствующие результаты приведены на рис. 2, 3.

Рис. 2 отражает работу низкочастотных фильтров ℱ" с различной структурой посглаживанию процесса #(t): "1 – выход фильтра первого порядка с бесконечной им-пульсной характеристикой (БИХ); " – результат коррекции "1 на основе результатовсглаживания функции �(t) = #(t)−"1(t) с помощью фильтра ℱ� (рис. 3); применение

Рис. 2. Определение пороговой функции после примененияфильтра T" c различной структурой

90

Рис. 3. Изменение ошибки определения пороговой функции"(t) для фильтра с БИХ

Рис. 4. Настройка параметров �t, �b моделей (12), (15)

сглаживающих фильтров с конечной импульсной характеристикой (КИХ): "1,reg –выход фильтра с регрессионной структурой, "1,const – выход фильтра, параметрыкоторого выбирались на основе обработки вариационного ряда процесса #(t). Нарис. 3 приведены результаты определения ошибки работы низкочастотного фильтраc БИХ с помощью фильтра с КИХ ℱ� , имеющего регрессионную структуру. Вели-чина �" в (11) равнялась 0,25. Так как функция �1(t) = ℱ�(t, �1) не удовлетворяла

91

Рис. 5. Оценка параметра �t c помощью модели (12)

Рис. 6. Настройка параметров �t, �b

условию (11), то была осуществлена коррекция "1(t) в соответствии с алгоритмом,приведенным в разделе 4. Результирующая функция порога "(t) показана на рис. 2.Рис. 3 отражает также изменение ошибки �2(t) = ℱ�(t, �2) определения порога "(t),полученной с помощью регрессионного фильтра.

Результаты идентификации параметров T - и ℬ-систем представлены на рис. 4–7.Для идентификации использовались данные It, Ib, полученные в результате класси-фикации множества Is с применением фильтра с КИХ, параметры которого опреде-лялись на основе обработки вариационного ряда #(t). Рис. 4, 5 отражают результаты

настройки параметров �t(b), �t моделей (12), (15). Здесь же показаны интервальныеобласти изменения параметров T - и ℬ-моделей. Они определены на основе анализа

92

Рис. 7. Изменение ошибки идентификации T - и ℬ-систем ивыходов ℬ-системы и ℬ-модели

оценок �t, �b, �t, на интервале [tv, tvk ], где v = t, b. В некоторой степени эти областиявляются детерминированным аналогом доверительных интервалов, применяемыхв теории вероятности. Рис. 6 отражает процесс настройки параметра � для моде-лей (12) и (15). Адекватность работы полученных моделей иллюстрирует рис. 7, гдепоказано изменение относительной ошибки прогнозирования, а также выходы ℬ-модели и ℬ-системы. Из рис. 7 следует, что ошибка прогнозирования при больших tне превышает 2%.

8. Заключение

Предложен подход к оценке параметрических ограничений и ограничений нанеопределенность в условиях неопределенности. Получены модели и адаптивныеалгоритмы для идентификации верхней и нижней границ области параметрическихограничений. Исследованы свойства адаптивной системы при несоблюдении условиявозбуждения для информационной матрицы системы (1), (2).

ПРИЛОЖЕНИЕ

Д о к а з а т е л ь с т в о т е о р е мы . Рассмотрим функцию Ляпунова Ve,n = e2n. Дляпервой разности функции Ve,n

ΔVe,n+1 = −�Ve,n + 2�en�CTn Fn +

(�CT

n Fn

)2

справедлива оценка

(П.1) ΔVe,n+1 = −�Ve,n + 2�√Ve,nV Δ

n + �2nVΔn ,

где � = 1− � 2 > 0, 0 < � < 1, �n = ∥Fn∥2. Для Q = −�Ve,n +2�

√Ve,nV Δ

n с помощьюподхода, предложенного в [10], получаем

−�Ve,n + 2�√Ve,nV Δ

n ⩽ −�Ve,n + 2�2n�2V Δ

n /�.

Тогда (П.1) преобразуем к виду

ΔVe,n+1 ⩽ −�Ve,n + �2n(1 + 2� 2/�

)V Δn ,

93

откуда

(П.2) Ve,n+1 ⩽ � 2Ve,n + ��2nVΔn ,

где � = 1 + 2� 2/�.

Найдем оценку для V Δn . Если Fn ∈ P3(Fn, 0, 1), n определяется из условия

optn = argmin

n

(V Δn+1 − V Δ

n ) и выполняются предположения в) и г) теоремы, то

(П.3) V Δn ⩽ �nV Δ

0 ,

где � = 1 − 0/ 1. Так как � < 1, то V Δn < ∞. Изменяя в (П.2) n от n − 1 до 0 и

учитывая (П.3), неравенство для Ve,n+1 можно записать в виде

Ve,n+1 ⩽ � 2nVe,0 + � 1VΔ0

n∑

i=1

�i−1� 2(n−i).

Так какn∑

i=1

�i−1� 2(n−i) =�n − �2n

� − � 2,

то для Ve,n+1 получаем оценку (20), что и требовалось доказать.

Следствие из теоремы доказывается аналогично.

СПИСОК ЛИТЕРАТУРЫ

1. Kreisselmeier G. A robust indirect adaptive control approach // Int. J. Control. 1986.V. 43. No. 1. P. 161–175.

2. Tsakalis K., Ionnou P. A new indirect adaptive schemes for time-varying plants // IEEETrans. Autom. Control. 1990. V. AC-35. No. 6. P. 697–705.

3. Kreisselmeier G., Anderson B. Robust // IEEE Trans. Autom. Control. 1987.V. AC-31. No. 2. P. 127–133.

4. Kreisselmeier G., Narendra K. Stable model reference adaptive control in the presenceof bounder disturbances // IEEE Trans. Autom. Control. 1982. V. AC-27. No. 6. P. 1169–1175.

5. Куржанский А. Б. Задача идентификации – теория гарантированных оценок (об-зор) // АиТ. 1991. N∘ 4. C. 9–26.

6. Карабутов Н. Н., Сполысов М. А. Разработка алгоритма определения параметри-ческих ограничений в условиях неопределенности // Труды Mежд. научно-технич.семинара “Современные технологии в задачах управления и обработки информации.Алушта, 1996". М.: МАИ. 1996. C. 124–125.

7. Мартынюк А. А., Гутовски Р. Интегральные неравенства и устойчивость движе-ния. Киев: Наук. думка, 1979.

8. Карабутов Н. Н. Идентификация неопределенных систем. I // АиТ. 1997. N∘ 11.С. 118–130.

9. Левин Б. Р. Теоретические основы статистической радиотехники. Кн. 3. М.: Сов.радио, 1976.

10. Фрадков А. Л. Адаптивное управление в сложных системах. М.: Наука, 1990.

Статья представлена к публикации членом редколлегии В. А. Лотоцким.

Поступила в редакцию 21.05.98

94


Recommended