Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебное пособие 3000212.doc
Скачиваний:
7
Добавлен:
30.04.2022
Размер:
913.92 Кб
Скачать

7. Прикладные задачи теории вероятности

7.1. Определение статистических характеристик

x f(x) y Статистические

x(t) f(x(t)) y(t) х-ки y и y(t) надо найти

Один аргумент:

my – f(mx)

Несколько аргументов:

my = f(mx1, mx2…)

(Это для линеаризированных функций) или для СКО:

Если Rij = 0 – нет корреляции между xi и xj (!).

Линейные функции от нормально распределенных аргументов:

Имеется в виду, что мы рассматриваем систему случайных величин (х1, х2…хn).

Для Rij = 0; Для Y – тоже нормальный закон с my, y2.

Если величин много, но неизвестны их законы распределения (а только <mxi, xi>), то при n = 5  10 слагаемых закон распределения стремится к нормальному.

7.2. Нахождение функциональной зависимости

Обратная задача: метод наименьших квадратов.

Е сли y = (x) и мы наблюдаем

(Надо узнать y = f(x))

Пусть критерий (yi - (xi))2 = min

Можно показать, что это требование следует нормального закона распределения ошибок измерения и исходя из принципа максимального правдоподобия.

Если выбрать вид функции (x) из предварительных соображений и ставить задачу определения неизвестных параметров a, b, c…

Y = (x, a, b, c… ).

Тогда получим:

[yi - (xi, a, b, c… )]2 = min

С оответственно:

Рассмотрим несколько частных случаев:

  1. y = ax + b;

  2. y = ax2 +bx +c;

  3. y = ai i(x) и в частности ;

3а) y = a1cosx + a2sinx + a3cos2x + a4sin2x ;

3б) y = a1eat + a2ebt + a3et.

Задачи 3а) и 3б) могут решаться либо прямым методом, находя min как функции параметров, например, графически или введением новых условных переменных

Z1 = cosx; Z2 = sinx; Z3 = cos2x; Z4 = sin2x.

И далее рассматривают y = aiZi .

Соответственно: Z = et или Z = lg x

Подчеркнем, что для параболической или в общем случае полиномиальной функции:

Y = aixi + dixi2 + cixixj + dixj3

уравнения для неизвестных коэффициентов a, b, c, d, e … остаются линейными – это главное преимущество МНО.

Далее распишем конкретные уравнения для y = ax + b и y = = ax2 + bx + c

Связь y2, x2 и Rxy :

Rxy = 0, если y и x не связаны между собой.

В общем случае Rxy<<1, т.е. –1<<Rxy<<1

  • ошибка линейной модели yx = ax + b

улин2 = x2 [1 – Rxy2].

  • ошибка линейной модели многих аргументов:

- вводится понятие коэффициента множественной кореляции:

Ry (x1, x2 … xn).

  • остаточная дисперсия (ошибка линейной апроксимации)

y2 = y2(1 – Rxy2).

Далее эта задача рассмотрена более подробно.