Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Оптимизация процессов технологии металлов методами планирования экспериментов

..pdf
Скачиваний:
6
Добавлен:
12.11.2023
Размер:
21.7 Mб
Скачать

Таким образом, способ расчета коэффициентов в данном слу­ чае очень прост: для подсчета любого столбцу у следует припи­ сать знаки соответствующего столбца х„ сложить значения от­

клика с этими знаками и результат разделить на число опытов матрицы планирования.

Обычно математическим аппаратом, используемым для реше­ ния различных задач теории эксперимента, является линейная

алгебра.* В матричной форме можно

записать

 

ХВ =

Y,

(2.13)

где X — матрица условий

эксперимента:

*0

* 1

. . .

ХА

*01

* 1 1

*■•

*/д

*02

* 12 . . .

хк2

. . . хш

В — матрица неизвестных коэффициентов:

К

h

В =

ьк

Y — матрица результатов опытов:

Ух

У2

Ун

Умножим обе части (2.13) слева на матрицу Xх, транспони­ рованную к X. Получим

 

 

 

(ХТХ) В =

XTY.

(2.14)

Матрица

Хт

имеет

вид

 

 

 

 

 

 

* 0 1

* 0 2

• *

* 0 Л '

 

 

 

хт = * п

* 1 2

* 1 N

 

 

 

*А 1

*&2

• * •

x k N

* Основы

алгебры

матриц хорошо описаны, например, в учебных посо­

биях [50,

13].

 

 

 

 

 

71

а матрица (ХТХ), обозначим ее А, выглядит следующим образом:

*01

Х02

 

*0/V

0

* 11 **■

*/a

А = (ХТХ) = Х\\

 

 

* l

 

xk2

*1» ■. .

*l,V .

*02

* 12

*ftl

Xfi2

• • •

XkN

*0.V

*LV . . .

xkN

 

 

Я 4 u

S

v .

•••

=

Sv».

^

U

■ ■ * S v* .

 

SJа'*Л

У x k Xx

0

 

1 XK

 

 

Ru l u

Матрица

А ^

(ХТХ)

называется

информационной матрицей

Фишера (иногда

ее еще

называют

матрицей моментов плана),

а матрица М = 1/N (ХТХ) — приведенной (к одному наблюдению)

информационной матрицей.

Выражение (2.14) представляет собой систему нормальных уравнений метода наименьших квадратов (2 .8 ), записанную в ма­

тричной форме. Элементы матрицы В (неизвестные коэффициенты) определяются из решения этой системы.

 

Найдем матрицу (ХТХ)-1, обратную матрице (ХТХ), и умножим

на нее слева обе части уравнения (2.14):

 

Но

 

(ХТХ)“ *( х тх) В = (XTX)~l (ХтY).

 

 

(ХТХ )~‘ (ХТХ) = Е,

 

 

 

 

где

Е — единичная матрица.

 

 

Следовательно,

 

 

 

В = (ХТХ)“ ‘ (XTY).

(2.16)

Это и есть

решение.

матрицы

 

Одна из

возможных формул для расчета обратной

А"

1 = (ХТХ)~1:

 

 

 

 

(2.17)

где (XTX)V — присоединенная матрица, т. е. матрица, в которой элементы замещены их алгебраическими дополнениями, а затем

произведено транспонирование; | ХТХ | — определитель матрицы

(ХТХ). Пример расчета обратной матрицы с помощью ЭКВМ см. в п. 2.5.2.

Однако обычно ее получают на ЭВМ.

72

В общем случае, обратная матрица А" 1 имеет следующую

структуру:

 

 

 

 

 

^00

c«i

• ♦•

c0k

 

А’ 1 =

(ХТХ )-' =

^го

 

• • •

Clk

(2.18)

 

 

 

 

 

 

 

 

 

ско

Ck\

• • •

ckk

 

Найдем также

 

матрицу

(XTY):

 

 

 

 

 

 

 

 

 

 

 

 

N

 

 

 

 

 

 

 

 

 

Xl х о У и

 

 

•'•01

х ш

. . .

X0,V

 

 

и—1

 

 

 

Уа

N

 

 

 

 

 

 

 

 

 

 

X u

X u

■ ■ ■

X1N

 

Ъ \ У и

 

(XTV) -

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

и—1

 

 

Xkl

Xk2

* • *

X kN

 

Уы

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x k У и

и = 1 "

Таким образом, решение системы нормальных уравнений (2.16) записывается следующим образом:

h

N

 

 

 

 

X Х0 У«

 

 

 

 

и= 1

11

c0l)

An

■■■

C0k

N

 

X Х \

У и

^10

cn

• ■■

Clk

и=1

и

CkO

cki

■■•

ckk

 

 

 

 

 

 

N

 

 

 

I- X k Уи

откуда

 

и=I

и

 

 

 

к

(

N

(2.19)

 

bt = 2 l

 

/= 0

 

 

 

При ортогональном планировании, когда выполняется усло­ вие (2.9), информационная матрица имеет следующий вид:

 

N

 

 

 

 

 

И=1

0

 

0

 

 

 

 

 

 

 

 

N

 

 

 

А - (ХТХ)

0

 

0

(2.20)

U =1

■ ■■

 

 

 

 

 

 

 

 

 

N

 

 

 

0

0

У

x l

 

 

 

 

« = i

 

«

73

Следовательно, для ортогональных планов информационная матрица диагональна.

В этом случае обратная матрица

А - ' -

( Х ' Х ) - 4 также диа­

гональна и представляет собой

 

 

 

А" 1 =

(Х'Х) "

1 -

 

 

1

 

о

О

 

N

 

 

2 4

 

 

 

н—1

 

 

 

4»о

о ... о

 

 

О

0

о

N

 

Сц ... О

L

X1,

(2.21)

 

 

V

2

 

 

 

11=I

 

0

О . . . ckk

 

 

 

 

О

 

О

N

 

 

 

 

X

 

 

 

 

« —1

Отсюда при ортогональном планировании формула (2.19) приобретает вид

N

т. е. такой же, как и (2 . 1 1 ).

Обратная матрица (Х'Х) ” 1 играет первостепенную роль при

определении свойств строящихся моделей и их интерпретации. В частности, обратим внимание на то, что в рассматриваемых случаях модели типа (2.3) характеризуют зависимость случайной величины зависимой переменной (у) от неслучайных значений

независимых (х,). В таких ситуациях уравнение типа (2.3) назы­ вают уравнением регрессии, его коэффициенты — коэффициен­ тами регрессии, а метод построения и анализа уравнений —

регрессионным анализом.

При использовании регрессионного анализа — одного из ме­ тодов математической статистики, требуется выполнение сле­

дующих исходных

предпосылок:

1 ) зависимая переменная (отклик) — случайная величина с нор­

мальным законом

распределения;

2 ) дисперсия в

определении этой переменной не зависит от

ееабсолютной величины;

3)факторы измеряются с пренебрежимо малой ошибкой по сравнению с ошибкой в определении отклика.

Поскольку коэффициенты регрессии рассчитывают по формуле, например (2 . 1 1 ), из результатов опытов, являющихся случайными

величинами, то и сами коэффициенты являются случайными.

74

В общем случае эти коэффициенты имеют разные дисперсии и

разную величину

взаимной

корреляции

(различные ковариации

и коэффициенты

корреляции).

 

 

 

 

 

 

 

 

 

 

Все статистические свойства коэффициентов, а следовательно

и уравнения

 

регрессии,

определяет

обратная

матрица

А" 1 =

“ (ХтХ )- \

умноженная

на

оценку

дисперсии

опыта

S y2.

Эту

матрицу часто называют матрицей дисперсий — ковариаций

или

ковариационной. Нормированная

ковариационная

матрица — это

матрица

показать

[77],

что матрица

A_1 *S^

имеет вид

 

Можно

 

 

 

 

 

 

 

 

 

£оо

CQ1

*

C0k

|

 

 

A -

,

S Z

=

( X T X ) - 1

S2

--

^10

сп

 

■ •

Clk

 

 

 

 

 

 

 

 

Оу

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ск0

Ckl

■ Ckk 1

 

 

 

 

 

 

 

 

COVV J

covV *

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

C 0 V

V / e

 

 

(2.22)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

covv*

COV6lftft

 

 

Sik

 

 

 

 

 

Отсюда получаются соотношения для оценок дисперсий коэф­

фициентов

регрессии

(S | ),

их ковариаций (cov^ .) и коэффици­

ентов корреляции между

ними

 

):

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Sbt CilSyi

 

 

 

 

 

 

 

(2.23)

 

 

 

 

 

 

covV / = C ijSl;

 

 

 

 

 

 

(2.24)

 

 

 

 

 

 

 

-

Cii

 

 

 

 

 

 

 

(2.25)

 

 

 

 

 

 

bi bi

V c u cu

'

 

 

 

 

 

 

 

где cih Cjj,

Сц — соответствующие

элементы

матрицы

(ХТХ)“ 1.

Способы оценок дисперсий опыта, а также правила проверки

статистических

гипотез

об

адекватности

 

построенной

модели

и о значимости отдельных коэффициентов регрессии, будут рас­ смотрены в разделе 2.4.

При ортогональном планировании, когда выполняется усло­ вие (2.9), все элементы обратной матрицы (ХТХ) “ 1 c i} — 0, а сама

матрица имеет вид (2.21). Поэтому в этом случае матрица диспер­

сий — ковариаций (2 .2 2 )

выглядит

следующим

образом:

 

c 00

0

. . .

0

 

 

 

0 .

. .

0

 

 

 

 

 

 

 

(хтх ) - '^

0

 

. . .

0

 

0

c ' -

. .

0

C l l

O y

\

.

 

 

C 2 _ _

 

 

0

0

 

C k k

 

0

 

0 .

• •

s l k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

75

N

О * . .

о

 

 

«---1 ч'и

 

 

О

N

О

 

х * ; .

(2.26)

 

и= 1

 

О

О

$ 2

/V

Таким образом, при ортогональном планировании дисперсии оценок коэффициентов регрессии рассчитывают по формуле

(2.27)

или, если выполняется условие нормировки (2 .2 ), по формуле

(2.28)

Все же ковариации, а следовательно, и коэффициенты корре­ ляции между оценками коэффициентов равны нулю, что лишний раз подтверждает независимость рассчитанных коэффициентов друг от друга.

Определим теперь оценку дисперсии предсказанного по урав-

нению значения

отклика

S |,

где

у — рассчитанное

значение.

Поскольку

коэффициенты

bt являются случайными величинами,

результаты

расчета

л

также

являются случайными.

Поэтому,

у

по

закону

сложения

ошибок

[108],

величина у1П рассчитанная

для

и

точки

факторного пространства:

 

 

 

 

 

УU = К - Ь Ь1х,п -!- Ь,Х,Ц-4----- [ 6,Л„,

(2•29)

должна

иметь дисперсию

 

 

 

 

 

 

 

si- S ( w ) ls*.+ S

 

<230)

 

Поскольку для модели (2.29)

=

а для ортогональ­

ных планов сочь(ь. = 0 и по формуле (2.28)

SI. = S\/N — оди­

наковая

величина для

всех

коэффициентов,

можно

записать:

5 % = .-о*'"5*1=

Sii S i Х‘“= ^

” ( 1

 

+ ------ h ^ J (2 .3 1 )

76

Рис. 2.1. Изолинии дисперсий предсказания моделью, получен­ ной из неротатабельного (а) и ротатабельного (б) плана

ИЛИ

 

 

^ « “

т г О + р " ) ’*2-32)

где ря =xiu + х\и+ ----- 1- х\и.

Таким образом, дисперсия

предсказанного

уравнением

регрессии

значения уи зависит от экспериментальной ситуации

{SyN) и радиуса

(ри) сферы (в общем случае гиперсферы) с цен­

тром в основном уровне. Следовательно, в любом направлении на одинаковом расстоянии от центра эксперимента (при равном р) полученное уравнение предсказывает с одинаковой точностью (Sf — одинаковые величины). Планы, для которых выполняется условие (2.32), получили название ротатабельных. На рис. 2.1, б показано изменение дисперсии предсказания 5 | в случае ротатабельности, а на рис. 2 . 1 , а при отсутствии ротатабельности.

Естественно, что в задачах ^оптимизации, когда предстоит из исходной точки двинуться к экстремуму, случай ротатабельности более предпочтителен, ведь направление движения заранее не­ известно, а потому хотелось бы иметь в любом направлении оди­ наковые возможности.

Указанные выше свойства планов — симметричность (2.1), нормировка (2.2), ортогональность (2.9), ротатабельности (2.32) — лишь некоторые из возможных.

Вобщем же случае можно выбирать разные строки матрицы X,

т.е. составлять различные планы эксперимента, обладающие теми или иными нужными экспериментатору свойствами.

Для оценки и сравнения планов используют математические критерии их оптимальности, которые обычно связывают со строе­ нием ковариационной матрицы или с организацией и порядком проведения опытов.

Таких критериев

может быть много (см., например, 176,

27, ПО, 36, 131, 125]),

и это позволяет выбирать планы, удовле­

творяющие разнообразным требованиям, возникающим при ре­ шении конкретных экспериментальных задач.

Критерии оптимальности планов и способы организации экс­ перимента удобно делить на три группы.

В первую группу входят критерии, связанные с точностью оценок коэффициентов регрессии. Сюда относятся такие свойства планов, как их ортогональность, О-^-Е-оптимальность и другие.

Этим критериям можно дать

геометрическую интерпретацию

в пространстве коэффициентов b0t

bly ..., Ьк. Оценки этих коэффи­

циентов, как уже отмечалось, являются случайными величинами,

77

а потому имеют разброс, который может быть охарактеризован эллипсоидом рассеяния оценок. Ориентировка, форма и объем эллипсоида полностью определяются выбранным планом экспе­ римента, точнее строением информационной М или ковариацион­ ной Mr1 матрицы. Перечислим некоторые критерии первой

группы.

Ортогональность (2.9) — очень удобное свойство планов. Она, как уже отмечалось, приводит матрицы М и М' 1 к диагональному

виду, позволяет оценивать все коэффициенты регрессии незави­ симо друг от друга и потому упрощать или усложнять модели, исключая или добавляя новые коэффициенты без пересчета уже найденных.

Число вычислений при этом минимально. Эллипсоид рассеяния ориентирован таким образом, что направления его главных осей совпадают с направлением координатных осей в пространстве коэффициентов.

D — оптимальными (по начальной букве английского слова determinant, т. е. определить) называют планы, которым соответ­ ствуют минимальный определитель ковариационной матрицы М 1

или, что то же самое, максимальный определитель информацион­ ной матрицы М. Определитель ковариационной матрицы пропор­ ционален объему, эллипсоида рассеяния. Следовательно, D- оптимальность приводит к получению эллипсоида рассеяния оце­ нок коэффициентов минимального объема. В статистическом смысле D -оптимальность обеспечивает минимум обобщенной дисперсии

всех оценок коэффициентов.

Можно составлять планы, обеспечивающие минимум обобщен­ ной дисперсии не всех, а только части оценок коэффициентов. Такие планы называют усеченными D -оптимальными. В этом случае требуется минимизировать не определитель матрицы М-1, а определитель ее подматрицы, соответствующей интересующим экспериментатора коэффициентам.

А-оптимальными (от английского выражения average variance, т. е. средняя дисперсия) называют планы, которым соответствует минимальное значение следа (т. е. суммы диагональных элемен­ тов) ковариационной матрицы. Поскольку на диагонали кова­ риационной матрицы находятся дисперсии оценок коэффициен­ тов, А-оптимальность обеспечивает минимум суммы дисперсий этих оценок без учета их ковариаций или, другими словами, минимум средней дисперсии оценок. При этом эллипсоид рас­ сеяния имеет минимальную сумму квадратов длин осей и наимень­ шую длину диагонали прямоугольника, описанного около этого эллипсоида.

D-оптимальным (от английского выражения eigen value, т. е. собственное значение) планам соответствует наименьшее макси­ мальное собственное значение (характеристическое число) [13, 50] ковариационной матрицы М 1 или, что то же самое, наибольшее

минимальное собственное число информационной матрицы М.

78

^-оптимальность минимизирует длину максимальной оси эллип­ соида рассеяния оценок коэффициентов, т. е. не позволяет ему приобрести слишком вытянутую форму. Со статистической точки зрения она не дает возможности некоторым оценкам коэффициен­ тов иметь слишком большие дисперсии и ковариации.

Критерии оптимальности второй группы определяют точность предсказания значений отклика с помощью построенной модели. Сюда относятся такие свойства планов, как их ротатабельность, униформность, G- и Q-оптимальность, максимальная точность оценки координат экстремума и др. Опишем некоторые из них.

Ротатабельность (от английского rotatable, т. е. способный к вращению), как уже было показано выше, обеспечивает оди­ наковую точность предсказания для точек, равно удаленных от центра плана по любому направлению. Иными словами, диспер­ сии предсказания инвариантны (независимы) относительно вра­ щения координатных осей факторного пространства.

Униформность (от английского uniform, т. е. равномерный) в дополнении к ротатабельности требует, чтобы в некоторой области вокруг центра плана дисперсия предсказания оставалась примерно постоянной.

G-оптимальные (от английского выражения general variance, т. е. общая дисперсия) планы минимизируют максимально воз­ можную дисперсию предсказания. Они гарантируют отсутствие в области эксперимента точек, имеющих слишком низкую точ­ ность оценки функции отклика.

Q-оптимальные планы минимизируют среднюю дисперсию предсказания.

К третьей группе можно отнести свойства планов, связанные со стратегией экспериментирования. Укажем некоторые из них.

В большинстве задач естественно стремление эксперимента­ тора к минимизации числа опытов. Этот минимум задается числом коэффициентов модели, а приближение к нему служит мерой насыщенности плана.

Важным является шаговый принцип планирования экспери­ мента. С ним связана и композиционность планов. При компози­ ционной стратегии эксперимент реализуется по частям, шаг за шагом. Решение о продолжении эксперимента и выбор метода на каждом последующем шаге принимают только по результатам предыдущего. Композиционные планы предполагают постепенное усложнение строящейся модели. Здесь же следует отметить, что в ряде случаев композиционность планов, наоборот, является нежелательным свойством. Изучая, например, зависимости меха­ нических свойств сплавов от их состава, условий приготовления и обработки, необходимо иметь в виду, что, прежде чем будут проводиться собственно механические испытания, сплавы при­ дется отливать, деформировать, несколько раз термообрабатывать и пр. В таких ситуациях бывает легче приготовить и испытать сразу большую серию образцов, чем делать это несколько раз

79

малыми сериями. Композиционная стратегия может привести к сокращению числа изученных сплавов, но не к уменьшению общего времени работы. Естественно, что выбор композиционной или некомпозиционной стратегии определяется содержанием каж­ дой конкретной задачи.

Близким к композиционности является необходимость, в ряде случаев, разбивать планы на ортогональные блоки. Это всегда необходимо в тех случаях, когда эксперимент оказывается на­ столько продолжительным по времени, что могут систематически меняться неконтролируемые факторы (выгорает футеровка в пе­ чах, изнашивается инструмент при обработке давлением и т. д.).

Кроме разделения на блоки, позволяющего учитывать времен­ ной дрейф, для борьбы с систематически действующими во время эксперимента неконтролируемыми факторами можно использо­ вать рандомизацию, предусматривающую проведение опытов плана в случайном порядке.

Наконец, хотелось бы иметь планы, позволяющие проводить обработку результатов опытов с помощью возможно более простых вычислений.

Список возможных критериев оптимальности и способов орга­ низации эксперимента можно было бы значительно расширить [76, 27, ПО, 36].

Подчеркнем, что выбор критерия оптимальности и способа проведения эксперимента осуществляют исходя из конкретного содержания решаемой задачи. Построить планы, удовлетворя­ ющие одновременно многим критериям оптимальности, удается только в отдельных случаях. В частности, рассмотренные выше планы полного факторного эксперимента типа 2 fc, как и регуляр­ ные планы типа 2 *“ ^, речь о которых пойдет дальше, являются одновременно D -, Л-, Е- и G-оптимальными. Кроме того, они

ортогональны и ротатабельны. Но так бывает редко. Сравнивая критерии между собой, можно отметить, что,

например, для критериев первой группы величина определителя ковариационной матрицы JVT1 (т. е. D -оптимальность) является

более полной численной характеристикой по сравнению с дру­ гими критериями. Действительно, критерий D -оптимальности учитывает все элементы ковариационной матрицы, в то время, как критерий А -оптимальности учитывает только диагональные

элементы. Кроме того, поскольку определитель матрицы является произведением ее собственных чисел, критерий D -оптимальности является более полной характеристикой по сравнению с D-опти­ мальностью. В ряде случаев D -оптимальиые планы оказываются одновременно и G-оптимальными. С другой стороны, в работе [76] чисто формально рассчитаны коэффициенты парной корре­ ляции между различными критериями самых разнообразных известных в настоящее время планов. Этот анализ привел, в част­ ности, к выводу, что выбор плана по Л-оптимальности обеспечи­ вает более высокую вероятность получить в результате план,

80

Соседние файлы в папке книги