Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Нечёткое, нейронное и гибридное управление

..pdf
Скачиваний:
5
Добавлен:
12.11.2023
Размер:
3.91 Mб
Скачать

μY yj max max min μx xi R xi y ,b y .

(3.3)

x

j

 

 

 

 

 

 

 

Добавление порога (точно так же, как в искусственном нейроне) можно рассматривать как введение дополнительного входа в нейронный узел, значение которого изменяется от 0 до 1.

Таким образом, уравнение (3.3) можно рассматривать как функцию активации, используемую в выходном узле. Из этого уравнения также следует, что возможный уровень сигнала, получаемого на выходном узле сети, не может быть ниже порога. Для обучения такой сети можно использовать стандартные алгоритмы обучения.

3.4. Конструкция и структура нейросетевого модуля [18]

База правил

Знания, составляющие основу конкретного функционирования модуля расширенного нечеткого управления, записываются в виде продуктивных правил. Можно также представить эти знания в виде нечетких множеств с функцией принадлежности, заданной выражением

RK : IF x1 это A1K AND....AND xn это AnK THEN y это BK .

Если в качестве нечеткой импликации будет использована опе-

рация умножения (по Ларсену), то получим формулу

 

μАK BK x, y μAK x μBK y

(3.4)

и, представив декартовое произведение нечетких множеств в виде

AK x AK ... AK x AK x1

.... AK xn , (3.5)

1

n

1

n

получим функцию принадлежности нечеткого множества B K

241

μ

 

K y sup

 

μ

А

x T

μ

 

K

 

K x, y

 

B

A

B

 

x X

 

 

 

 

 

 

 

 

(3.6)

 

 

 

А

 

x μ

A

 

B

 

 

 

 

 

 

sup μ

 

 

 

 

K

 

K

x, y

 

x X

Конкретная форма этой функции зависит от применения Т-нор- мы, определения нечеткой импликации и способа задания декартова произведения нечетких множеств.

В результате объединения приведенных выражений можно записать

μBK y sup μА x T μAK BK x, y

x X

sup μА x μAK BK x, y

x X

sup μА x μАK x μBK y

x X

sup

x1 ...xn X

A1

x ...μ

An

x

) (μ

K

x

....μ

 

K

x

B

K

y

 

 

 

1

 

n

 

A1

1

 

 

 

An

n

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

μAK xi

 

 

 

 

 

 

sup

 

 

 

 

 

 

 

 

,

 

 

μBK y μAi

xi

 

 

 

 

 

x1 ...xn X

 

 

i 1

 

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где sup – cупремум (максимальная высота).

Если принять термы фаззификатора типа синглетонов

n

ВK y BK y AiK xi , i 1

то дефаззификацию можно выполнить по формуле

 

N

 

 

y K

 

K y K

 

y

B

,

K 1

N

 

 

 

k yk

 

B

 

 

k 1

 

(3.7)

(3.8)

(3.9)

242

где yk – центр нечеткого

 

множества

Bk ,

т.е. точка, в которой

BK y достигает максимального значения или

 

 

μ

B

K

 

y K

 

 

max

μ

B

K

y .

(3.10)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

 

 

 

 

 

 

При подстановке в выражение (3.9) формулы (3.8) получим

 

N

 

 

 

 

 

n

 

 

 

 

 

 

y K BK

y K Ak xi

 

y

K 1

 

 

 

 

 

i 1

 

i

 

.

(3.11)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N

 

 

 

 

n

 

 

 

 

 

 

 

BK y K Ak xi

 

 

K 1

 

 

 

 

i 2

 

i

 

 

 

 

 

 

 

 

 

 

 

 

Если учесть, что максимальное значение, которое жет получить в точке yk , равно 1, т.е.

BK y K 1,

то формула принимает вид

 

N

 

n

 

 

 

 

y K

 

μAk xi

y

K 1

i 1

 

i

 

.

 

 

N

n

 

 

 

 

 

 

 

 

 

μAk

xi

 

 

 

K 1

i 2

i

 

 

 

 

 

 

 

Структура нейросетевого модуля

BK y мо-

(3.12)

Завершающий этап в процессе проектирования модуля нечеткого управления (фаззификатор, блок нечеткого вывода и дефаззификатор) – это определение формы представления нечетких мно-

жеств АiK , i 1, ..., n. ; k 1, ..., N .

Пример 3.4. Рассмотреть построение нейросетевого модуля на примере функции Гаусса

 

 

x

x k 2

 

 

μAk xi exp

i

 

 

i

 

 

,

(3.13)

 

 

k

 

i

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

243

где параметры xik – центр (математическое ожидание) и ik – шири-

на гауссовской кривой (среднее квадратическое отклонение) могут быть переменными.

Данные параметры могут изменяться в процессе обучения, что позволяет изменить положение и структуру нечетких множеств. Объединив формулы (3.12) и (3.13), получим

 

N

 

 

n

 

 

x

x k 2

 

 

yk

 

exp

 

i

 

i

 

 

 

 

 

 

 

k

 

 

 

 

k

 

 

i

 

 

 

 

i

 

 

 

 

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.

(3.14)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N

 

 

n

 

x

x k

2

 

 

 

 

exp

 

i

 

i

 

 

 

 

 

 

 

 

k

 

 

 

k 1

 

i 1

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Модуль управления на два входа. На схеме (рис. 3.8) показаны слои, обозначенные символами от L1 до L4. Элементы, обозначенные

символом (мультипликаторы), перемножают все входные сигналы, элементы, обозначенные (сумматоры) – суммируют их, а эле-

мент bа делитодинсигналнадругойсигнал.

Рис. 3.8. Многослойная нейронная сеть

244

Черные точки, размещенные на связях, означают веса этих связей. Элементы слоя L1 реализуют «колоколообразную» функцию

Гаусса с параметрами xik и ik . Выражения и стрелки, размещенные

над схемой, определяют направление распространения сигнала и его интерпретацию. Отдельные элементы схемы называются узлами. В представленной структуре выделены четыре слоя.

Слой L1. Каждый элемент этого слоя реализует функцию при-

надлежности нечеткого множества Ak

i 1,...,n ;

k 1,..., N . В этот

i

 

 

слой поступают входные сигналы xi , а на его выходе формируются значения степени принадлежности этих функций принадлежности для этих сигналов μAik xi . В этом слое оценивается степень при-

надлежности входных данных xi к соответствующим нечетким множествам Aik . Функциональная зависимость между входом и выходом в узлах этой сети определяется формулой (3.13), т.е. функцией Гаусса. Ее параметры xik и ik интерпретируются соответствен-

но как центр (математическое ожидание) и ширина этой функции. Они будут формироваться в процессе обучения, что позволит улучшить подбор нечетких множеств фаззификатора. Факт физической интерпретации этих параметров позволяет получить хорошее начальное размещение функции принадлежности нечетких множеств, а также анализировать ее в процессе обучения. Количество элементов слоя L1 равно количеству всех множеств с принадлежно-

стью Aik . В случае N нечетких правил k 1,..., N и n входных переменных i 1,..., n, с учетом того, что в каждом правиле любая

входная переменная связана с другим нечетким множеством, количество узлов (элементов слоя L1) будет равно произведению количества входных переменных n и нечетких правил N .

Слой L2. Конфигурация связей этого слоя соответствует базе правил, а мультипликаторы – блоку вывода (см. формулу (3.12) и

BK y K 1). На выходе слоя L2 формируется результат вывода в

245

виде значения функции принадлежности μBK y K . Количество

элементов этого слоя равно количеству правил N . Каждый узел связан с предыдущим слоем таким образом, что узел слоя L2, соответствующий k-муправилу, соединен со всеми узлами слоя L1, соответствующими нечетким множествам суждения этого правила. Применение мультипликаторов в качестве узлов L2 обусловлено тем фактом, что для Т-нормы, декартового произведения множеств и нечеткой импликации используется правило умножения.

Слои L3 и L4. Оба слоя представляют собой реализацию блока дефаззификации, т.е. его зависимость (3.14). Веса связей, доходя-

щих до верхнего узла слоя L3 и обозначенные yk , интерпретируют-

ся как центры функций принадлежности нечетких множеств Bk . Эти веса, так же как и значения параметров xik и ik в слое L1 , бу-

дут модифицироваться в процессе обучения. На выходе слоя L4 формируется выходное значение модуля управления y . Представ-

ленная структура имеет много общего с нейронными сетями – она представляет собой многослойную сеть, основанную на идее нечеткого вывода. В отличие от «чистых» нейронных сетей каждый слой в целом и отдельные составляющие его элементы, так же как конфигурация связей, все параметры и веса, имеют физическую интерпретацию. Это свойство является важным, поскольку знания не распределяются по сети и могут быть легко локализованы и при необходимости откорректированы экспертом.

На базе нечетких нейронов И и ИЛИ, например, строится ней- ро-нечеткая сеть ANFIS прямого распространения (адаптивная сетевая система вывода). История нейро-нечетких сетей (ННС) начинается с 1992 г., когда Чанг (Jang) предложил ANFIS-сеть [30]. ANFIS- сеть заменяет известные алгоритмы нечеткого вывода (нечеткую импликацию и нечеткую композицию по Мамдани, Ларсену, Тцукамото, Сугено-Такаги и т.д.).

Архитектура ННС подобна нечеткой базе знаний. В ННС используются дифференцируемые реализации треугольных норм min-

246

max (пересечение и объединение) и сигмоидальная активационная функция, что позволяет для настройки ННС применять ОРО.

3.5. Нечеткая нейронная сеть Anfis

Нечеткая нейронная продукционная сеть Anfis предназначена для реализации нечеткой импликации нечеткого вывода нечеткого регулятора с последующим обучением, чтобы придать свойства адаптации нечеткому регулятору [8, 47]. При этом возможны модификации сети Anfis в зависимости от применения алгоритмов Суге- но-Такаги, Сугено-Такаги-Канга и алгоритма Ванга-Менделя.

3.5.1.Нечеткая нейронная продукционная сеть Anfis

сприменением алгоритма Сугено-Такаги

Рассмотрим вариант реализации сети Anfis с применением алгоритма нечеткого вывода Сугено-Такаги.

В модели вывода Сугено-Такаги используется набор правил

Ri : ЕСЛИ x1

это Ai1 , …И xn это Ain , ТО y f X ,

где X x1, x2 , ...xn ;

f X – некоторая четкая функция, например

полином первого порядка.

Определяются уровни «отсечения» ai для левой части каждого из правил согласно выражению ai minj Aij xj , i 1,...m, j 1,...n и рассчитываются «индивидуальные» выходы правил Ri , i 1,...m :

n

yi p10 pij xj ,

i 1

где pi0 , pij – коэффициенты полинома или цифровые веса, которые

уточняются в процессе анализа данных.

Блок дефаззификации осуществляет переход от нечеткого значения лингвистической переменной (управление) к числовому значению. В случае упрощенного алгоритма нечеткого вывода (алго-

247

ритм Сугено нулевого порядка), когда

yi f X pi0 ,

i 1,...m,

следует

 

 

 

 

 

 

 

 

 

 

m

μij xj pi0

 

 

y x1

, x2

,..., xn

minj

.

 

i 1

 

 

 

m

 

 

 

 

 

 

min μij xj

 

 

 

 

 

i 1

 

j

 

 

На рис. 3.9 изображена ANFIS-сеть с двумя входными лингвистическими переменными x1, x2 и четырьмя нечеткими правилами. Для лингвистической оценки входной переменной x1 используется терм-множество из трех терм, для переменной x2 – терм-множество из двух терм. Термы в виде колоколообразных ФП.

 

1

 

 

 

 

 

2

3

4

 

 

x1

1

 

 

 

 

 

2

3

4

 

у

 

1

 

 

 

 

 

 

 

 

2

3

4

 

 

x2

1

 

 

 

 

2

3

4

 

 

 

1

 

 

 

 

Рис. 3.9. Нейро-нечеткая ANFIS-сеть с применением алгоритма Сугено-Такаги

ANFIS-сеть есть пятислойная НС прямого распространения сигнала:

первый слой – термы входных переменных;

второй слой – посылки (антецеденты) нечетких правил;

третий слой – нормализация степеней выполнения правил;

четвертый слой – заключения правил;

248

– пятый слой – агрегирование (композиция) результата, полученного по различным правилам.

Входы сети в отдельный слой не выделяются.

В общем случае нечеткие правила сети имеют вид

Rr : Если х1 a1,r И…И хn an,r , то уr b0,r b1,r x1 ... bn,r xn

Слой 1. Каждый узел первого слоя представляет один терм с колоколообразной ФП, отличной от функции Гаусса.

μr xi

 

 

 

 

1

 

 

 

,

 

 

 

x

 

c

 

2b

 

 

 

1

 

 

i

 

 

 

 

 

 

a

 

 

 

 

 

 

 

 

 

 

 

 

где a,b,c – настраиваемые параметры колоколообразной ФП.

Входы сети соединены только со своими термами. Количество узлов первого слоя равно сумме мощностей терм-множеств входных переменных, где операция фаззификации выполнена на синглетонной базе.

Слой 2. Количество узлов второго слоя m. Каждый узел этого слоя соответствует одному нечеткому продуктивному правилу. Узел второго слоя соединен с теми узлами первого слоя, которые формируют посылки соответствующего правила. Следовательно, каждый узел второго слоя может принимать от 1 до n сигналов. Выходом узла является степень выполнения правила, которая рассчитывается как произведение входных сигналов. Обозначим выходы узлов этого слоя r , r 1,....m , где m – количество нечетких пра-

вил.

Слой 3. Количество узлов третьего слоя равно m . Каждый узел этого слоя рассчитывает относительную степень выполнения нечеткого правила по формуле

 

 

 

 

r

.

r

m

 

 

 

 

j

j 1

249

Слой 4. Количество узлов слоя также равно m. Каждый узел соединен с одним из узлов третьего слоя, а также со всеми входами сети (на рис. 3.9 связи с входами показаны). Узел четвертого слоя рассчитывает вклад одного нечеткого правила в выход сети по формуле

уr r b0,r b1,r x1 ... bn,r xn .

Слой 5. Единственный узел этого слоя суммирует вклады всех правил.

m

у уj .

j 1

Настройка ANFIS-сети с двумя входными лингвистическими переменными x1, x2 и четырьмя нечеткими правилами выполняется

комбинацией градиентного спуска в виде алгоритма ОРО и МНК. Алгоритм ОРО настраивает параметры антецедентов, т.е. ФП.

МНК оценивает коэффициенты заключения правил, так как они линейно связаны с выходом сети. Каждая итерация процедуры настройки выполняется в два этапа.

На первом этапе на входы подается обучающая выборка и по невязке между желаемым и действительным поведением сети МНК находятся оптимальные параметры узлов четвертого слоя. На втором этапе остаточная невязка передается с выхода сети на входы и методом ОРО модифицируются параметры узлов первого слоя. При этом найденные на предыдущем этапе коэффициенты заключения правил не изменяются. Итерационная процедура настройки продолжается, пока невязка превышает заранее установленное значение. Для настройки ФП, кроме метода ОРО, могут использоваться и другие алгоритмы оптимизации.

Рассмотрим пример применения сети ANFIS , где использован алгоритм Сугено-Такаги [14, 48].

Пример 3.5. Разработать нейро-нечеткий регулятор частоты вращения силовой турбины в среде MATLAB-SIMULINK, где блок

250