книги / Моделирование систем управления
..pdfV |
*i(0' |
a ll |
a 12 |
• .. |
a lv" |
Г = У2 . |
* ( 0 = *2(0 |
, a = a 21 |
a 22 |
•.. |
a 2v |
_У\. |
_*v(0. |
_a vl |
a v2 |
•.. |
a w_ |
Решение модели |
|
t |
|
|
|
|
|
|
|
|
|
Y{t) = exp(af)Jo + |
Jexp[a(/ - i)]x(x)dx. |
|
|||
|
|
о |
|
|
|
x ( t ) —задана априори, a Y Q и a требуется оценить во временном интер вале 0 < t <ty по дискретным наблюдениям Y(t).
Y(ti) - вектор-столбец v х 1 ;
h(tt) - матрица v х v, заданная априори;
е (0 - вектор шума (ненаблюдаемые ошибки) v х 1. Тогда решение
h
Щ ) = A(fi) {ехр(оф 0 + jexp[a(/f - т)]х(х)Л } + <#,).
о
т - ч ъ у ь й + т
Модель, содержащую одну или несколько линейных дифференциаль ных уравнений более высокого порядка с постоянными коэффициентами, можно преобразовать в систему обыкновенных дифференциальных уравне ний первого порядка. Например,
d 2j^ |
dy |
- +a |
, - +a 2y= x(t). |
_L~i |
|
Я 'о ) = >0. |
y(lo) =УQ- |
<fy_
Обозначим — = У\ и получим систему уравнений
dt
~г~+ а\У\ + a 2^=JC(0 . at
с начальными условиями: y{tQ) = y Q; у,(/0) = у0.
4.6.1. Ненаблюдаемая ошибка, добавляемая к производным
Вследствие трудностей получения аналитических решений для детер минированной модели процесса справедливо равенство
~ =Да,Г,0. Ц0) =Л ,
где Д а, У, /) представляет собой весьма общую нелинейную функцию. Это уравнение в большинстве случае не имеет аналитического решения, и его следует решать численными методами.
Но лучше всего эксперименты ставить так, чтобы измерялся вектор
ОТ
производных — , а не сам вектор У. В таких случаях предполагается, что
dy
ненаблюдаемая ошибка добавляется к детерминированной производной — :
dY dy
----= — + 8. dt dt
Если наблюдаемая переменная является производной, то процедура оценивания вообще не затрагивает дифференциального уравнения; парамет ры и качественные условия можно оценить рассмотренными ранее методами.
4.6.2.Оценивание методом наименьших квадратов
Если наблюдения Y для откликов модели представляют собой непре рывные функции t в интервале от 0 до tf>то критерий наименьших квадратов требует минимизации величины
F= \ |
(4.2) |
2 0 |
|
где Г - ковариационная матрица (или, возможно, матрица соответствующих весов).
Если наблюдения проводились в дискретные моменты времени, то сле
дует минимизировать величину |
|
F - ^ £ [ а д - В Д ГГ -1[Г(/10 - Ч '(/,)] . |
(4.3) |
*1
Всоответствии с методом наименьших квадратов (МНК) следует опре
делить
~т~=о=-Ей - Ш Ы ) ] ТГ']
*Уо |
1 |
dyQ |
(4.4) |
|
|
|
|
£ = |
о = - m |
- * < 5jW /)]r г - 1 |
|
Эти уравнения образуют систему нелинейных уравнений для получе ния оценок элементов а и у0. Количество оценок для уо составляет и, для а оно равно п х п . Размерность системы п + п х п = п(п + 1).
Для того чтобы получить оценки точности оценок а и у0, необходимо сделать некоторые предположения относительно распределения ненаблю даемых ошибок (пример - совместное нормальное распределение).
Чаще всего уравнения (4.4) нелинейны по оценкам параметров а и уо, поэтому их можно решить каким-либо итерационным методом, например, методом Гаусса.
4.6.3. Повторное интегрирование экспериментальных данных
Этот метод эффективно используется как для непрерывных, так и для дискретных наблюдений. Используется повторное интегрирование экспери ментальных данных с применением численного интегрирования.
Пусть модель описывается дифференциальным уравнением
d 2y dy -а 1у +а 2у 2 + а 3еа4',
у* . -
у(Р) = Уй> у'(0) = уЬ-
Проинтегрируем в интервале от 0 до /, получим
± _ ( Ф ) |
+ «оО ' - л ) = “ 1\ ул ‘+«2 / / < * '+ «з \ea,, dt' |
|||||
dt \ dt J/=o |
||||||
=0 |
|
|
|
0 |
0 |
0 |
и, после повторногоинтегрирования,1 |
|
|
|
|||
>~Уо~ « о У о + И |
{<*'+а 0 lydt' = а , jf \y d A d t'i |
|||||
|
V“ |
A)Jo |
g |
oU |
) |
|
|
i f f |
, |
ï |
|
|
|
- a 2J \y 2d t'\d t\Ч а з |^ [ е “4''Л '|л '. |
|
|||||
|
oU |
|
J |
|
|
|
Полученное уравнение содержит лишь функцию у и интегралы от нее. Предположим, что детерминированная переменная у заменена в инте
гралах стохастическими наблюдениями У, а для t выбран ряд различных зна чений /i, ...» tMгде п больше числа параметров, которые нужно оценить. Получается переопределенная система, которую можно было бы разрешить относительно оценок параметров методом наименьших квадратов.
Конечно, ненаблюдаемая ошибка, добавляемая к у, теперь связана с са мими интегралами; следовательно, независимые переменные становятся слу чайными величинами. Кроме того, поскольку наблюдения У производятся последовательно во времени, инте1ралы не являются статистически незави симыми. Тем не менее, для данных, взятых через равные или неравные про межутки времени, вычисления нетрудно проводить непрерывно или после измерений.
4.6.4. Оценивание методом максимального правдоподобия
Рассмотрим совместную функцию распределения плотности вероятно сти Д а , уо | у(fi), y(t2), ..., y{tn)) для а и уоЕсли возможно найти максимум этой функции относительно всевозможных наборов а и у0, то оценки, полу ченные таким образом, и являются максимально правдоподобными оцен ками.
Учтем правило умножения вероятностей, если события А и В зависимы, то вероятность А при условии В
Р(А I В) = P(y*,ZB) > щ |
=т ■Р(А I В) = Р(А) • Р(В I Л). |
Тогда апостериорную функцию (с учетом результатов эксперимента) распределения плотности вероятности можно представить в виде отношения двух плотностей вероятности
Р(а,у0 Я1 М . .Я М ) =Жа>>>о .Ж |) - Я * 1 » 1»
Яа>.Уо,ЯМ> -,y(ti))=P(y(t«) Ia,y»,Atn-ù. . . . Я М ) хP(.0 -,yo,y(tn-\), -.Я М )-
Эту операцию можно продолжать до тех пор, пока не получится выра
жение |
|
Д а .Л .Я М... Я М ) =Р(а>Уо) П Р Ш |
I“ .-VO.MA-I). -> Я М )- |
Д а .У о )]!Д Я Ма-УоУ(*1I -1 ).-»Я М ) |
|
Р(а,Уо I Я и .- .Я М ) = _ _ _ _ _1=1 |
_ _ _ _ _ _ _ _ _ _ _ _ _ _ |
р (уЮ .....Я М
Исследование решения
показывает, что переменная У(^) зависит только от а , у0 и s(f,) и не зависит
от предыдущих измерений. |
|
|
Следовательно, можно записать |
|
Iа >л )* |
Л Я М I«>Уо,Я м О......Я М ) = Я Я М |
||
Таким образом, совместная функция распределения плотности вероят |
||
ности равна |
|
|
Р (а ,^ о )П ^ (Я 'г)1 « .Л ) |
||
Я а .У о ! Я М . Я М ) =________1_____________ |
|
|
Логарифм функции правдоподобия |
P iA Q - A h ) ) |
|
|
|
|
I = In Р(а,у0) + Z { 1пР(у(^) | a,y 0) + |
[КО “ |
^ */) - Ф Ш - |
-ln P (y(rrt), ...,у(гО),
где X - множитель Лагранжа.
Учитывая, что P(y(ti) | а, у0) = Р(е(/*)) - функция распределения плотно сти вероятности (для случайной величины) и, в частности, для нормального закона
Р(е(*,)) = |
1 |
|1/2 •exp |
- i e |
r (fi) r - 1(ï/)e(^)J, |
(4.5) |
|
|||||
(2я)”/2-|Г(/()| |
- |
- |
|
||
\---/ |
I “ |
I |
|
||
где |Г| = det Г, а Г - ковариационная матрица для е (т.е. для откликов). |
|
||||
Ь^\пР(а.,у0) + |
^ Р Ш |
) +Хт(М [Я М -Ч '(а,;> 'о,М -е(М ])- |
- InР Ш , - .Я М ) -
Дифференцируем по параметрам.
|
dL |
d |
т |
|
[ |
• 7 7 - г = T T T ln /'(Ëf t ) ) - x r f t ) = 0. |
(4.8) |
||
de(tt) |
dz{tt) |
v" |
||
Прологарифмируем (4.5): |
|
|
||
|
In |
= In ЛГ- j |
(бгГ ‘ 8). |
|
A затем возьмем производную по е(/>) и подставим в (4.8):
-err , ->/ft) = 0.
Решив уравнение относительно Щ), можно исключить \(ь) из уравне ний (4.6), (4.7).
X(/,) = - r 'ft) E(0 = - r 'ft) |
/,)]. |
Введем для удобства новый вектор-столбец а*, в котором все элементы матрицы а расположены следующим образом:
« и '
а,2
CCjv
аа 21
а 2у
Предположим, что у0 и а имеют совместное нормальное распределе ние и что распределения для а* иуо записываются в виде
* » )ш ( 2 . ) * |‘й „ Ч ~ Ч 1~ J," l ) r a " fa,« -
где По* и Qjo - ковариационные матрицы; индекс (0) обозначает начальные (априорные) оценки а* иуо-
Если предположить, что а* иуо независимы, то
InР (а\ уо) = In Р(а ) + InР(уо\
InР(у0) = In i (Уо -yo{QY C V V o -У о \
4 - м ы — |
■Уо> |
<tyo |
|
— In P(a) = -{a - a (0yf |
Q j , |
da |
|
Подстановка априорных распределений в первые два уравнения системы (4.6)-{4.7) дает уравнения, из которых можно получить оценки дляуоиа*:
|
1 |
аУо |
. |
1 |
do. |
|
В предположении, что элементы матрицы Q по существу бесконечны |
|
(априорное знание расплывчато), т.е. Q"1 s |
0, то уравнения максимального |
правдоподобия совпадают с соответствующими уравнениями метода наи меньших квадратов, и поэтому к ним применимы те же самые показатели точности.
4.6.5. Применение методов оценивания
Рассмотрим скалярную модель
У=У+£, где х0 - постоянный входной сигнал.
Решение:
У= у0еш + Jx(x)ea(' X)dx = у0е
о
Пусть начальное значение уо и параметр а имеют гауссово распре деление
Дисперсия ненаблюдаемой ошибки
Е Ш ) =0,
|
£(s(/l)e(/y)) = |
* =j- |
||
|
|
|||
Уравнения для оценивания методов наименьших квадратов |
||||
т ) - У * |
5 l ( l - e s'.) |
е " '= 0 , |
|
|
' + а 4 |
' |
|
|
|
I |
~ ( l - e S//) |
{ ^ о е 5''- р - И ( 1 - й О - 1 ] } = 0 . |
||
1L |
|
|
|
|
Уравнения для оценивания методом максимального правдоподобия |
||||
1 L |
% •*' + ^ ( l - e 5'')]e5'- =0, |
|||
|
а |
J |
|
|
(а - а (0) ) ^ + |
- ÿ0e5'' + |
(l - e5'' )jj/ ^ e 5'' - g - (e"0'-(1 - at,-) - l)J = 0. |
Уравнения нелинейны по оценкам параметров, однако их можно ре шить каким-нибудь методом итераций, например, методом Гаусса.
4.6.6. Выводы и сравнение методов
Для очень малых априорных ошибок порядка a у = а а = 0,01 оценива
ние методом максимального правдоподобия (ММП) дало лучшие результаты, чем оценивание методом наименьших квадратов. Когда стандартное откло нение априорных ошибок возросло, применение МНК, по сравнению с ММП, дало лучшие результаты.
Было проанализировано влияние длины экспериментального интерва ла. С помощью ММП были получены более точные результаты, чем при ис пользовании МНК, для одного и того же полного числа экспериментальных точек, т.к. априорная информация становится особенно важной, когда экспе риментальная информация со временем уменьшается.
Для неустойчивой модели все типы оценок одинаковы, и их точность улучшается с увеличением экспериментального интервала. Для оценивания каждым из рассмотренных методов требуется примерно одинаковое время.
Можно заключить, что ММП является наилучшим в том смысле, что приводит к более точным оценкам. К тому же он дает оценки, которые нс яв ляются более смещенными, чем полученные другими методами.
5. СТАТИСТИЧЕСКОЕ ИМИТАЦИОННОЕ МОДЕЛИРОВАНИЕ
Для моделирования процессов на ЭВМ необходимо преобразовать его математическую модель в специальный моделирующий алгоритм. При статистическом имитационном моделировании реализация моделирующе го алгоритма является в некотором смысле имитацией элементарных явле ний, составляющих исследуемый процесс, с сохранением их логической структуры, последовательности протекания во времени и особенно - ха рактера и состава информации о состояниях процесса.
Статистическое имитационное моделирование представляет собой метод получения с помощью ЭВМ статистических данных о процессах в моделируемой системе. При решении задач используются методы мате матической статистики.
Различают две области применения статистического моделирования:
-изучение стохастических систем;
-решение детерминированных задач.
При решении детерминированных задач задача заменяется эквива лентной стохастической моделью, выходные характеристики которой сов падают с результатом решения детерминированной задачи.
В результате статистического моделирования системы получается серия частных значений искомых величин или функций, статистическая обработка которых позволяет получить сведения о поведении реального объекта (процесса) в произвольные моменты времени. При большом коли честве реализаций результаты приобретают статистическую устойчивость.
Теоретической основой метода статистического моделирования яв ляются предельные теоремы теории вероятности.
Множества случайных явлений (событий, величин) подчиняются оп ределённым закономерностям, позволяющим не только прогнозировать их поведение, но и количественно оценивать некоторые средние их характе ристики, проявляющие определённую устойчивость. Закономерности на блюдаются и в распределениях случайных величин, которые образуются при сложении множества воздействий. Принципиальное значение пре дельных теорем состоит в том, что они гарантируют высокое качество ста тистических оценок при весьма большом числе испытаний (реализаций) N. Однако практически приемлемые при статистическом моделировании ко личественные оценки характеристик систем часто могут быть получены уже при сравнительно небольших N.
5.1.Основные соотношения и теоремы
5.1.1.Неравенство Чебышева
Если распределение выборочной статистики неизвестно, довери
тельный интервал для любой случайной величины X с конечной дисперси- 2
ей <зх можно определить, используя неравенство Чебышева. Неравенство
Чебышева устанавливает, что вероятность получения значения нормиро ванной случайной величины, равного или меньшего, чем число Л, по край
ней мере, равна 1 -
Пусть cp(jc) - неотрицательная функция случайной переменной х.
Покажем, что если математическое ожидание Е{ ср(дс)} существует,
то для любой положительной постоянной С вероятность, что <р(х) > С, не
превосходит отношения |
, т.е. Р{ср(х > С)} < |
. |
|
С |
С |
Пусть £ - набор х , для которых ф(х) > С, а |
набор оставшихся х. |
|
Тогда |
|
|
£ ( ф М ) = | ф ( х ) / ( х )д + / ф ( х ) / ( х ) & .
ïÏ*
Так как каждый интеграл в правой части неотрицателен, то оставим только первый интеграл, в результате появится неравенство:
£(<р(*))> | Ф(х )/(х )& .
$
По определению ср(х) > С для некоторого С, следовательно, можно
заменить <р(х) постоянной С, и неравенство еще более усилится.
£(<р(х))> С \f{x)dx = С Р (ф )> С ).
S
Отсюда Р{ф(* > С)} < |
. |
Положим
ф(х)= (х- Е(х)У, С = hzo \.
Получим неравенство Чебышева:
Тогда
4 х - £ ( х ) ) 2 ^ |
2 . о 2 х } ^ , |
no
или
|
p i & x - E ( x j ) Z h a x } < - j , |
|
h |
|
P&x-E{x))<h • a,}> 1- ■— . |
|
h |
5.1.2. |
Обобщённая теорема Чебышева |
Если Çi, ÇAT - |
независимые случайные величины с математиче |
ским ожиданием au .... aNи дисперсиями о2!, —, G2N>ограниченными свер ху одним и тем же числом, то при N -> оо среднее арифметическое значе ний случайной величины сходится по вероятности к среднему арифмети ческому их математических ожиданий:
|
5.1.3. |
Центральная предельная теорема |
Если |
...» - |
независимые, одинаково распределённые случайные |
величины, имеющие математическое ожидание а и дисперсию а 2, то при
N -> оо закон распределения суммы |
N |
неограниченно приближается |
|
|
1 |
к нормальному.
Статистическое моделирование на ЭВМ требует формирования зна чений случайных величин, что реализуется с помощью датчиков (генера торов) случайных чисел.
5.2. Формирование случайных чисел
Возможны два способа формирования случайных чисел на ЭВМ. Первый способ предполагает выработку случайных чисел при по
мощи специальных электронных приставок, связанных с ЭВМ. Преиму щество в том, что требуемые случайные числа могут вводиться в машину в каждый такт её работы, т.е. генерирование случайных чисел почти не требует дополнительных операций машины.
Второй способ - выработка случайных чисел самой машиной по специальным алгоритмам при использовании некоторой стандартной со вокупности случайных чисел. Необходимо выбрать такую совокупность, которая получается с наименьшими затратами машинного времени, а так же позволяет достаточно просто формировать различные случайные реа лизации. Считают, что этим требованиям удовлетворяет совокупность случайных чисел с равномерным законом распределения в интервале [0,1].