- •1. Основные понятия
- •Основные определения
- •Событие, вероятность события (частота события)
- •2. Случайные величины и законы распределения
- •Числовые характеристики случайных величин
- •Моменты для непрерывных величин:
- •2.2. Законы распределения случайной величины
- •I f(X) c α β X X I) равномерный
- •2.3. Определение законов распределения случайных величин
- •3. Системы случайных величин
- •3.1. Числовые характеристики системы двух случайных величин
- •3.2. Числовые характеристики системы нескольких случайных величин
- •Распределение Пуассона:
- •Л огнормальный закон распределения:
- •Нормальный закон распределения:
- •4.2. Распознавание в многомерном пространстве
- •Платежная матрица:
- •4.3. Параметрические методы распознавания
- •5. Функции случайных величин
- •Теорема сложения математических ожиданий
- •Теорема умножения математических ожиданий.
- •И вообще для некоррелированных случайных величин:
- •Для нескольких случайных величин:
- •6. Случайные функции
- •6.1. Законы распределения случайной величины
- •6.2. Корреляционная функция и ее свойства
- •Основные свойства корреляционной функции:
- •6.3. Пример случайной функции
- •Математическое ожидание случайной функции X(t) будет равно
- •Дисперсия случайной функции X(t) равна:
- •6.4.Cпектральные плотности
- •Введем понятие «плотность» дисперсии
- •На рис.6.2 показана спектральная плотность
- •Преобразование случайной функции линейной системой
- •Применение теории случайных функций к задачам анализа и синтеза
- •7. Прикладные задачи теории вероятности
- •7.1. Определение статистических характеристик
- •7.2. Нахождение функциональной зависимости
- •С оответственно:
- •7 .3. Линейная функция многих переменных Вводится новый набор переменных
- •Список литературы
- •Введение 3
4.2. Распознавание в многомерном пространстве
Рассмотрены в общем случае варианты решений, если число классов 1, 2…n и больше 2 (n>2). Число параметров также больше 2 и составляет X1…Xn, т. е. мы имеем вектор Х=(х1…хn). Отношение правдоподобия между каждыми двумя классами к и е.
для .
Платежная матрица:
.
Граница в пространстве признаков находиться из min среднего риска:
или или .
Е сли рассматривается многомерное нормальное распределение с вектором средних и ковариационной матрицей , т. е.
.
Тогда граница областей находиться из уравнения:
.
Полагают, что это уравнение гиперплоскости в пространстве n-признаков для двух состояний к и е из условия средних потерь.
4.3. Параметрические методы распознавания
Ищется в общем случае оператор от измеряемых признаков и
этот оператор сравнивают с некоторым порогом :
;
.
Метод статистических решений
Находят отношение правдоподобия состояний D1 и D2 из условия многомерного нормального распределения [PM для электронной промышленности], для чего достаточно знать векторы в каждом классе D1 и P2 и ковариационные матрицы D1 и D2. Для критерия максимального правдоподобия F(x) определяют из уравнения:
где T –знак транспонирования.
Если ковариационные матрицы D1 = D2 и состояния различаются лишь математическими ожиданиями, то решаюшая функция:
- называется дискриминантной функцией, линейность означает, что в пространстве n- признаков мы строим гиперплоскость.
Формально, надо, чтобы количество измерений было равно количеству признаков, но фактически надо, чтобы оно было в 3-5 раз больше для обучения.
Общий алгоритм:
- вероятность;
В многомерном случае:
; вместо ;
.
Вместо будем иметь квадратичную форму:
Тогда:
Е сли - среднее значение ;
- ковариационная матрица. Здесь .
Пусть имеем двумерный случай:
; .
Показатель экспоненты […] раскроем:
.
Отметим, что плотность вероятности и p-мерном евклидовом пространстве постоянна на эллипсоидах.
- для каждого положительного с.
Центром является точка
Н аклон эллипса при R>0 45 к оси (1 – 3 квадрант) большая
при R<0 135 к оси (2 – 4 квадрант) ось
Б ольшая ось:
М алая ось:
Все это в условных переменных:
Д ля нормального распределения:
Здесь А = -1 (обратная ковариационная матрица).
Частный случай:
1a. Пусть теперь у нас есть две совокупности с равными ковариационными матрицами :
N((1)) и N((2)).
О тношения плотности вероятностей:
ln K – показатель экспоненты возрастает, {…}
Е сли провести группировку, то в скобках {…} получим:
D(x) – дискриминантная (B) – вектор постоянных значений
функция для D(x)
Таким образом:
Имеем область R1 или R2 для любого Х:
R1: если D(x) >> ln K+B;
R2: если D(x) << ln K+B.
Если вводятся цены, то:
Е сли цены одинаковы, то K = 1; ln K = 0.
Т.о., имеем общий алгоритм:
1. Для каждого состояния находим:
1, 1 1, 1
: : : :
N, N N, N
(2)
З десь = 12 12p
12p 22
2. Задаемся ценами C(1/2) и C(2/1) ошибочных классификаций и вычисляем пороговое:
3 a. Вычисляем постоянную компоненту классификации (вектор В):
3. Проводим D(x) и в пространстве x1…xN пользуемся решающим правилом
R1: если D(x) >> ln K+B;
R2: если D(x) << ln K+B.
Система для моделирования и диагностики аварийных состояний динамических объектов.
Модели совместных многомерных статистических
распределений: f(x1, x2, xN)
а) коррелирование
многомерный б) некоррелирование
нормальный в) переход к новому пространству состояний
закон распределения г) проекции на плоскость
измерений (x1, … xN)
Восстановление статистических законов состояний по
косвенным измерениям:
многомерный А) контроль на входе WIJ(S) - по
нормальный ситуации на выходе
з акон Б) контроль на выходе – по
распределения ситуации на входе
В–Г) то же, но для многомерного
варианта
Д) метод потенциальных
функций
Моделирование неизвестных многомерных законов f(x):
как суперпозиция нормальных законов
а) для коррелированных XIJ-XJ
б) некоррелированные XIJ-XJ
в) по методу ПФ те же варианты
Диагностика аварийных состояний динамических систем
(непрерывный вариант) с помощью линейных дискриминантных функций:
а) многомерный вариант без
различные корреляции
многомерные б) многомерный вариант с
законы корреляцией
в-г) вариант косвенных измерений
Диагностика аварийных состояний динамических систем
(марковские процессы 1 и 2 рода):
р азличные а) корреляционные изменения
законы б) некоррелированные измерения
распределения в-г) косвенные измерения
(вход, выход)
Последовательный анализ при диагностике аварий
(непрерывные системы):
а) нахождение верхних и нижних
границ для нормального
одномерное распределения
распределение б) нахождение верхних и нижних
границ для законов, отличных
от нормальных
в-г) то же – многомерный
вариант
Последовательный анализ для марковских процессов
(дискретные системы):
а) одномерный вариант
б) многомерный вариант
в) многомерный вариант с
корреляцией
г) отклонения от нормального
закона
д) косвенные измерения
Структура, общесистемная оболочка, состав модулей для
имитационного моделирования задач диагностики (включает все модули по п. 1-7)