Нечеткая логика и нейронные сети лекции. Нечеткая логика и искусственные нейронные сети. Круглов В.В. Нечеткие когнитивные карты










Пример «Горячий чай" X= 0 C C; С = 0/0; 0/10; 0/20; 0,15/30; 0,30/40; 0,60/50; 0,80/60; 0,90/70; 1/80; 1/90; 1/100.


Пересечение двух нечетких множеств (нечеткое "И"): MF AB (x)=min(MF A (x), MF B (x)). Объединение двух нечетких множеств (нечеткое "ИЛИ"): MF AB (x)=max(MF A (x), MF B (x)).


Согласно Лотфи Заде лингвистической называется переменная, значениями которой являются слова или предложения естественного или искусственного языка. Значениями лингвистической переменной могут быть нечеткие переменные, т.е. лингвистическая переменная находится на более высоком уровне, чем нечеткая переменная.


Каждая лингвистическая переменная состоит из: названия; множества своих значений, которое также называется базовым терм- множеством T. Элементы базового терм-множества представляют собой названия нечетких переменных; универсального множества X; синтаксического правила G, по которому генерируются новые термы с применением слов естественного или формального языка; семантического правила P, которое каждому значению лингвистической переменной ставит в соответствие нечеткое подмножество множества X.










Описание лингвистической переменной "Цена акции" X= Базовое терм-множество: "Низкая", "Умеренная", "Высокая"


Описание лингвистической переменной "Возраст"








«Мягкие вычисления" (Soft computing) нечёткая логика, искусственн ые нейронные сети, вероятностн ые рассуждени я эволюционн ые алгоритмы


























Построение сети (после выбора входных переменных) Выбрать начальную конфигурацию сети Провести ряд экспериментов с различными конфигурациями, запоминая при этом лучшую сеть (в смысле контрольной ошибки). Для каждой конфигурации следует провести несколько экспериментов. Если в очередном эксперименте наблюдается недообучение (сеть не выдаёт результат приемлемого качества), попробовать добавить дополнительные нейроны в промежуточный слой (слои). Если это не помогает, попробовать добавить новый промежуточный слой. Если имеет место переобучение (контрольная ошибка стала расти), попробовать удалить несколько скрытых элементов (а возможно и слоёв).


Задачи Data Mining, решаемые с помощью нейронных сетей Классификация (обучение с учителем) Прогнозирование Кластеризация (обучение без учителя) распознавание текста, распознавание речи, идентификация личности найти наилучшее приближение функции, заданной конечным набором входных значений (обучающих примеров задача сжатия информации путем уменьшения размерности данных


Задача "Выдавать ли кредит клиенту" в аналитическом пакете Deductor (BaseGroup) Обучающий набор - база данных, содержащая информацию о клиентах: – Сумма кредита, – Срок кредита, – Цель кредитования, – Возраст, – Пол, – Образование, – Частная собственность, – Квартира, – Площадь квартиры. Необходимо построить модель, которая сможет дать ответ, входит ли Клиент, желающий получить кредит, в группу риска невозврата кредита, т.е. пользователь должен получить ответ на вопрос "Выдавать ли кредит?" Задача относится к группе задач классификации, т.е. обучения с учителем.







ПИД-регуляторы, описанные выше, имеют плохие показатели качества при управлении нелинейными и сложными системами, а также при недостаточной информации об объекте управления. Характеристики регуляторов в некоторых случаях можно улучшить с помощью методов нечеткой логики, нейронных сетей и генетических алгоритмов. Перечисленные методы за рубежом называют "soft-computing", подчеркивая их отличие от "hard-computing", состоящее в возможности оперировать с неполными и неточными данными. В одном контроллере могут применяться комбинации перечисленных методов (фаззи-ПИД, нейро-ПИД, нейро-фаззи-ПИД регуляторы с генетическими алгоритмами).

Основным недостатком нечетких и нейросетевых контроллеров является сложность их настройки (составления базы нечетких правил и обучения нейронной сети).

5.7.1. Нечеткая логика в ПИД-регуляторах

Нечеткий вывод выполняется следующим образом. Предположим, что область изменения ошибки разделена на множества , область изменения управляющего воздействия - на множества и что с помощью эксперта удалось сформулировать следующие правила работы регулятора [Astrom ]:

Правило 1: если = и = , то =

Правило 2: если = и = , то =

Правило 3: если = и = , то =

Правило 4: если = и = , то =

Правило 5: если = и = , то =

Правило 6: если = и = , то =

Правило 7: если = и = , то =

Правило 8: если = и = , то =

Правило 9: если = и = , то = .

Приведенные правила часто записывают в более компактной табличной форме (рис. 5.91).

Используя правила, можно получить значение управляющей переменной на выходе нечеткого регулятора. Для этого нужно найти функцию принадлежности переменной множеству, образованному в результате выполнения операций вывода над множествами, входящими в систему правил (5.118).

e

Рис. 5.91. Представление нечетких правил в табличной форме

Операция "И" в правилах (5.118) соответствует пересечению множеств, а результат применения всех правил соответствует операции объединения множеств [Рутковская ]. Функция принадлежности для пересечения двух множеств, например, и (см. Правило 1) находится как [Рутковская ]

Функции принадлежности, полученные при пересечении или объединении множеств, могут быть определены различными способами, в зависимости от смысла решаемой задачи. В этом смысле сама теория нечетких множеств тоже является нечеткой. В [Рутковская ] приводится 10 различных определений функции принадлежности для пересечения множеств, но не сказано, какое из них нужно выбрать для решения конкретной задачи. Используют, в частности, более понятную операцию нахождения функций принадлежности в случае пересечения и объединения множеств, имеющую аналогию с правилами умножения и сложения вероятностей:

Однако применение первых двух способов нахождения функции принадлежности обычно более предпочтительно, т.к. при этом сохраняется большинство правил, разработанных для обычных множеств [Усков ].

Функции принадлежности для каждого из множеств , входящих в нечеткую переменную в правилах (5.118), получаются в виде [Рутковская ]

Здесь каждое из 9-ти уравнений соответствует одному из правил (5.118). Результирующая функция принадлежности управляющего воздействия , полученная после применения всех 9-ти правил, находится как объединение функций принадлежности всех правил:

Теперь, когда получена результирующая функция принадлежности управляющего воздействия , возникает вопрос, какое конкретно значение управляющего воздействия нужно выбрать. Если использовать вероятностную интерпретацию теории нечетких множеств, то становится понятно, что такое значение можно получить по аналогии с математическим ожиданием управляющего воздействия в виде:

.

Такой способ дефаззификации является наиболее распространенным, но не единственным.

Для построения нечетких регуляторов обычно используют П, И, ПИ и ПД ПД+И, ПИ+Д и ПИД-законы регулирования [Mann ]. В качестве входных сигналов для системы нечеткого вывода используют сигнал ошибки, приращение ошибки, квадрат ошибки и интеграл от ошибки [Mann ]. Реализация нечеткого ПИД регулятора вызывает проблемы, поскольку он должен иметь трехмерную таблицу правил в соответствии с тремя слагаемыми в уравнении ПИД-регулятора, которую чрезвычайно сложно заполнить, пользуясь ответами эксперта. Большое количество структур ПИД-подобных нечетких контроллеров можно найти в статье [Mann ].

Окончательная настройка нечеткого регулятора или настройка, близкая к оптимальной, до сих пор остается трудной задачей. Для этого используются обучающие алгоритмы style="color:red"> и генетические поисковые методы, требующие больших вычислительных ресурсов и времени.

Применение нечеткой логики для подстройки коэффициентов ПИД-регулятора

Настройка регулятора, выполненная методами, изложенными в разделах "Расчет параметров" и "Автоматическая настройка и адаптация" , не является оптимальной и может быть улучшена с помощью дальнейшей подстройки. Подстройка может быть выполнена оператором на основании правил (см. раздел "Ручная настройка, основанная на правилах") или автоматически, с помощью блока нечеткой логики (рис. 5.92). Блок нечеткой логики (фаззи-блок) использует базу правил подстройки и методы нечеткого вывода. Фаззи-подстройка позволяет уменьшить перерегулирование, снизить время установления и повысить робастность ПИД-регулятора [Yesil ].

Процесс автонастройки регулятора с помощью блока нечеткой логики начинается с поиска начальных приближений коэффициентов регулятора . Это делается обычно методом Зиглера-Никольса, исходя из периода собственных колебаний в замкнутой системе и петлевого усиления. Далее формулируется критериальная функция, необходимая для поиска оптимальных значений параметров настройки методами оптимизации.

В процессе настройки регулятора используют несколько шагов [Hsuan ]. Сначала выбирают диапазоны входных и выходных сигналов блока автонастройки, форму функций принадлежности искомых параметров, правила нечеткого вывода, механизм логического вывода, метод дефаззификации и диапазоны масштабных множителей, необходимых для пересчета четких переменных в нечеткие.

Поиск параметров регулятора выполняется методами оптимизации. Для этого выбирается целевая функция как интеграл от суммы квадратов ошибки регулирования и времени установления. В критерий минимизации иногда добавляют скорость нарастания выходной переменной объекта.

В качестве искомых параметров (параметров, которые надо найти) выбирают положение максимумов функций принадлежности (см. рис. 5.90) и масштабные коэффициенты на входе и выходе фаззи-блока. К задаче оптимизации добавляют ограничения на диапазон изменения позиций функций принадлежности. Оптимизация критериальной функции может быть выполнена, например, с помощью генетических алгоритмов.

Следует отметить, что в случаях, когда информации достаточно для получения точной математической модели объекта, традиционный регулятор всегда будет лучше нечеткого потому, что при синтезе нечеткого регулятора исходные данные заданы приближенно.

5.7.2. Искусственные нейронные сети

Нейронные сети, как и нечеткая логика, используются в ПИД-регуляторах двумя путями: для построения самого регулятора и для построения блока настройки его коэффициентов. Нейронная сеть обладает способностью "обучаться", что позволяет использовать опыт эксперта для обучения нейронной сети искусству настройки коэффициентов ПИД-регулятора. Регулятор с нейронной сетью похож на регулятор с табличным управлением (см. раздел "Табличное управление">), однако отличается специальными методами настройки ("обучения"), разработанными для нейронных сетей и методами интерполяции данных.

В отличие от нечеткого регулятора, где эксперт должен сформулировать правила настройки в лингвистических переменных, при использовании нейронной сети от эксперта не требуется формулировка правил - достаточно, чтобы он несколько раз сам настроил регулятор в процессе "обучения" нейронной сети.

Нейронные сети были предложены в 1943 г. Мак-Каллоком и Питтсом как результат изучения нервной деятельности и биологических нейронов. Искусственный нейрон представляет собой функциональный блок с одним выходом и входами , который реализует в общем случае нелинейное преобразование , где - весовые коэффициенты (параметры) при входных переменных ; - постоянное смещение; - "функция активации " нейрона, например, вида (сигмоидальная функция), где - некоторый параметр. Нейронная сеть (рис. 5.93) состоит из множества связанных между собой нейронов, количество связей может составлять тысячи. Благодаря нелинейности функций активации и большому количеству настраиваемых коэффициентов (в работе [Kato ] использовано 35 нейронов во входном слое и 25 в выходном, при этом количество коэффициентов составило 1850) нейронная сеть может выполнять нелинейное отображение множества входных сигналов во множество выходных.

Типовая структура системы автоматического регулирования с ПИД-регулятором и нейронной сетью в качестве блока автонастройки показана на рис. 5.94 [Kawafuku , Kato ]. Нейронная сеть в данной структуре выполняет роль функционального преобразователя, который для каждого набора сигналов вырабатывает коэффициенты ПИД-регулятора .метод обратного распространения ошибки) [Терехов ]. Используются также другие методы поиска минимума, в том числе генетические алгоритмы, метод моделирования отжига, метод наименьших квадратов.

Процесс обучения нейронной сети выглядит следующим образом (рис. 5.95). Эксперту предоставляют возможность подстраивать параметры регулятора в замкнутой системе автоматического регулирования при различных входных воздействиях . Предполагается, что эксперт умеет это делать с достаточным для практики качеством. Временные диаграммы (осциллограммы) переменных , полученные в системе, подстраиваемой экспертом, записываются в архив и затем подаются на нейронную сеть, подключенную к ПИД-регулятору (рис. 5.95

Рис. 5.95. Схема обучения нейронной сети в блоке автонастройки

Длительность процесса обучения является основной преградой на пути широкого использования методов нейронных сетей в ПИД-регуляторах [Усков ]. Другими недостатками нейронных сетей являются невозможность предсказания погрешности регулирования для входных воздействий, которые не входили в набор обучающих сигналов; отсутствие критериев выбора количества нейронов в сети, длительности обучения, диапазона и количества обучающих воздействий. Ни в одной из публикаций не исследовалась робастность или запас устойчивости регулятора.

5.7.3. Генетические алгоритмы

1. Выбор исходной популяции хромосом размера N.

2. Оценка приспособленности хромосом в популяции.

3. Проверка условия остановки алгоритма.

4. Селекция хромосом.

5. Применение генетических операторов.

6. Формирование новой популяции.

7. Переход к п. 2.

Для работы алгоритма нужно задать нижнюю и верхнюю границы изменения искомых параметров, вероятность скрещивания, вероятность мутации, размер популяции и максимальное количество поколений.

Исходная популяция хромосом генерируется случайным образом. Приспособленность хромосом оценивается с помощью целевой функции в кодированной форме. Далее, хромосомы с лучшей приспособленностью собираются в группу, в пределах которой выполняются генетические операции скрещивания или мутации. Скрещивание позволяет получить от двух родителей перспективного потомка. Оператор мутации вносит изменения в хромосомы. В случае двоичного кодирования мутация состоит в изменении случайного бита в двоичном слове.

Рис. 5.97), затем происходит обмен генетической информацией, расположенной справа от выбранной позиции [Fleming ].

После выполнения генетического алгоритма производят декодирование двоичного представления в инженерные величины.

Оценка приспособленности хромосом в популяции для оценки коэффициентов ПИД-регулятора может быть выбрана, к примеру, как

,

где - текущее значение ошибки регулирования, - время.

Селекция хромосом осуществляется методом рулетки. На колесе рулетки имеются секторы, причем ширина сектора пропорциональна функции приспособленности. Поэтому чем больше значение этой функции, тем более вероятен отбор соответствующей ей хромосомы.

Нечёткая логика и нейронные сети

Введение

Нечёткая логика (англ. fuzzy logic) - раздел математики, являющийся обобщением классической логики и теории множеств, базирующийся на понятии нечёткого множества, впервые введённого Лотфи Заде в 1965 году как объекта с функцией принадлежности элемента к множеству, принимающей любые значения в интервале , а не только 0 или 1. На основе этого понятия вводятся различные логические операции над нечёткими множествами и формулируется понятие лингвистической переменной, в качестве значений которой выступают нечёткие множества.

Предметом нечёткой логики считается исследование рассуждений в условиях нечёткости, размытости, сходных с рассуждениями в обычном смысле, и их применение в вычислительных системах.

Направления исследований нечёткой логики

В настоящее время существует, по крайней мере, два основных направления научных исследований в области нечёткой логики:

Нечёткая логика в широком смысле (теория приближенных вычислений);

Нечёткая логика в узком смысле (символическая нечёткая логика).

Символическая нечёткая логика

Символическая нечёткая логика основывается на понятии t-нормы . После выбора некоторой t-нормы (а её можно ввести несколькими разными способами) появляется возможность определить основные операции над пропозициональными переменными: конъюнкцию, дизъюнкцию, импликацию, отрицание и другие.

Нетрудно доказать теорему о том, что дистрибутивность, присутствующая в классической логике, выполняется только в случае, когда в качестве t-нормы выбирается t-норма Гёделя.

Кроме того, в силу определенных причин, в качестве импликации чаще всего выбирают операцию, называемую residium (она, вообще говоря, также зависит от выбора t-нормы).

Определение основных операций, перечисленных выше, приводит к формальному определению базисной нечёткой логики, которая имеет много общего с классической булевозначной логикой (точнее, с исчислением высказываний).

Существуют три основных базисных нечётких логики: логика Лукасевича, логика Гёделя и вероятностная логика (англ. product logic). Интересно, что объединение любых двух из трёх перечисленных выше логик приводит к классической булевозначной логике.

Характеристическая функция

Для пространства рассуждения и данной функции принадлежности нечёткое множество определяется как

Функция принадлежности количественно градуирует приналежность элементов фундаментальногомножества пространства рассуждения нечёткому множеству . Значение означает, что элемент не включен в нечёткое множество, описывает полностью включенный элемент. Значения между и характеризуют нечётко включенные элементы.

Нечёткое множество и классическое, четкое (crisp ) множество

Примеры нечетких множеств

1. Пусть Е = {0, 1, 2, . . ., 10}, М = . Нечеткое множество «Несколько» можно определить следующим образом:

«Несколько» = 0,5/3 + 0,8/4 + 1/5 + 1/6 + 0,8/7 + 0,5/8; его характеристики: высота = 1, носитель = {3, 4, 5, 6, 7, 8}, точки перехода - {3, 8}.

2. Пусть Е = {0, 1, 2, 3,…, n ,}. Нечеткое множество «Малый» можно определить:

3. Пусть Е = {1, 2, 3, . . ., 100} и соответствует понятию «Возраст», тогда нечеткое множество «Молодой» может быть определено с помощью

Нечеткое множество «Молодой» на универсальном множестве Е" = {ИВАНОВ, ПЕТРОВ, СИДОРОВ,...} задается с помощью функции при­надлежности μ Молодой (x ) на Е = {1, 2, 3, . . ., 100} (возраст), называемой по отношению к Е" функцией совместимости, при этом:

где х - возраст СИДОРОВА.

4. Пусть Е = {ЗАПОРОЖЕЦ, ЖИГУЛИ, МЕРСЕДЕС,… } – множе­ство марок автомобилей, а Е" = - универсальное множество «Сто­имость», тогда на Е" мы можем определить нечеткие множества типа:

Рис. 1.1. Примеры функций принадлежности

«Для бедных», «Для среднего класса», «Престижные», с функциями при­надлежности вида рис. 1.1.

Имея эти функции и зная стоимости автомобилей из Е в данный момент времени, мы тем самым определим на Е" нечеткие множества с этими же названиями.

Так, например, нечеткое множество «Для бедных», заданное на уни­версальном множестве Е = { ЗАПОРОЖЕЦ, ЖИГУЛИ, МЕРСЕДЕС,...}, выглядит так, как показано на рис. 1.2.

Рис. 1.2. Пример задания нечеткого множества

Аналогично можно определить нечеткое множество «Скоростные», «Средние», «Тихоходные» и т. д.

5. Пусть Е - множество целых чисел:

Е = {-8, -5, -3, 0, 1, 2, 4, 6, 9}.

Тогда нечеткое подмножество чисел, по абсолютной величине близких к нулю, можно определить, например, так:

А = {0/-8 + 0,5/-5 + 0,6/-3 +1/0 + 0,9/1 + 0,8/2 + 0,6/4 + 0,3/6 + 0/9}.

Логические операции

Включение. Пусть А и В - нечеткие множества на универсальном множестве Е. Говорят, что А содержится в В, если

Обозначение: А В.

Иногда используют термин доминирование, т.е. в случае, ко­гда А В, говорят, что В доминирует А.

Равенство. А и В равны, если

Обозначение: А = В.

Дополнение. Пусть М = , А и В – нечеткие множества, заданные на Е. А и В дополняют друг друга, если

Обозначение:

Очевидно, что (дополнение определено для М = , но очевидно, что его можно определить для любого упорядоченногоМ).

Пересечение. А В - наибольшее нечеткое подмножество, содержащееся одновременно в А и В:

Объединение. A В - наименьшее нечеткое подмножество, включающее как А, так и В, с функцией принадлежности:

Разность. с функцией принадлежности:

Дизъюнктивная сумма

А В = (A - B ) ∪ (B - A ) = (A ̅ B ) ∪ (̅A ⋂ B)

с функцией принадлежности:

Примеры. Пусть

Здесь:

1) А ⊂ В, т. е. А содержится в B или B доминирует А С несравнимо ни с A , ни с В, т.е. пары {А, С } и {А, С } - пары недоминируемых нечетких множеств.

2) A B C

3) ̅A = 0,6/x 1 + 0,8/x 2 + 1/x 3 + 0/x 4 ; ̅B = 0,3/x 1 + 0,1/x 2 + 0,9/x 3 +0/x 4 .

4) А В = 0,4/x 1 + 0,2/x 2 + 0/x 3 + 1 /х 4 .

5) A В = 0,7/x 1 + 0,9/x 2 + 0,1/x 3 + 1/x 4 .

6) А - В = А ̅В = 0,3/x 1 + 0,l/x 2 + 0/x 3 + 0/x 4 ;

В - А= ̅А В = 0,6/x 1 + 0,8/x 2 + 0,l/x 3 + 0/x 4 .

7) А В = 0,6/x 1 + 0,8/x 2 + 0,1/x 3 + 0/x 4 .

Наглядное представление логических операций над нечеткими множествами. Для нечетких множеств можно строить визуальное представление. Рассмотрим прямоуголь­ную систему координат, на оси ординат которой откладываются значения μ А (х), на оси абсцисс в произвольном порядке распо­ложены элементы Е (мы уже использовали такое представление в примерах нечетких множеств). Если Е по своей природе упо­рядочено, то этот порядок желательно сохранить в расположении элементов на оси абсцисс. Такое представление делает нагляд­ными простые логические операции над нечеткими множествами (см. рис. 1.3).

Рис. 1.3. Графическая интерпретация логических операций:
α - нечеткое множество А; б - нечеткое множество̅А, в - А ̅А; г -A ̅А

На рис. 1.3α заштрихованная часть соответствует нечеткому множеству А и, если говорить точно, изображает область значений А и всех нечетких множеств, содержащихся в А. На рис. 1.3б , в, г даны ̅А, А ̅A, A U ̅А.

Свойства операций и

Пусть А, В, С - нечеткие множества, тогда выполняются сле­дующие свойства:

В отличие от четких множеств, для нечетких множеств в общем

A ̅A ≠ ∅, A ∪ ̅A ≠ E

(что, в частности, проиллюстрировано выше в примере наглядного представления нечетких множеств).

Замечание . Введенные выше операции над нечеткими мно­жествами основаны на использовании операций maxи min. В те­ории нечетких множеств разрабатываются вопросы построения обобщенных, параметризованных операторов пересечения, объеди­нения и дополнения, позволяющих учесть разнообразные смысло­вые оттенки соответствующих им связок «и», «или», «не».


Треугольные нормы и конормы

Один из подходов к операторам пересечения и объединения за­ключается в их определении в классе треугольных норм и конорм.

Треугольной нормой(t-нормой) называется бинарная операция (двуместная действительная функция)

1. Ограниченность: .

2. Монотонность: .

3. Коммутативность: .

4. Ассоциативность: .

Примеры треугольных норм

min(μ A , μ B )

произведение μ A · μ B

max(0, μ A + μ B - 1 ).

Треугольной конормой (сокращенно -конормой) называется двухместная действительная функция

удовлетворяющая следующим условиям:

1. Ограниченность: .

2. Монотонность: .

3. Коммутативность: .

4. Ассоциативность: .

Треугольная конорма является архимедовой , если она непрерывна
и для любого нечеткого множества выполнено неравенство .

Она называется строгой, если функция строго убывает по обоим аргументам.


Примеры t-конорм

max(μ A , μ B )

μ A + μ B - μ A · μ B

min(1, μ A + μ B ).

Примерами треугольных конорм являются следующие операторы :

Треугольная норма T и треугольная конорма S называются дополнительными бинарными операциями, если

T(a ,b ) + S (1 − a ,1 − b ) = 1

Наибольшей популярностью в теории Заде пользуются три пары дополнительных треугольных норм и конорм.

1) Пересечение и объединение по Заде:

T Z (a ,b ) = min{a ,b }, S Z (a ,b ) = max{a ,b }.

2) Пересечение и объединение по Лукасевичу:

3) Вероятностное пересечение и объединение:

Операторы дополнения

В теории нечетких множеств оператор дополнения не является единственным.

Помимо общеизвестного

существует целый набор операторов дополнения нечеткого множества .

Пусть задано некоторое отображение

.

Это отображение будет называться оператором отрицания в теории нечетких множеств , если выполняются следующие условия:

Если кроме этого выполняются условия:

(3) - строго убывающая функция

(4) - непрерывная функция

то она называется строгим отрицанием .

Функция называется сильным отрицанием или инволюцией , если наряду с условиями (1) и (2) для нее справедливо:

(5) .

Приведем примеры функции отрицания:

Классическое отрицание: .

Квадратичное отрицание: .

Отрицание Сугено: .

Дополнение порогового типа: .

Будем называть любое значение , для которого , равновесной точкой . Для любого непрерывного отрицания существует единственная равновесная точка.

Нечеткие числа

Нечеткие числа - нечеткие переменные, определенные на числовой оси, т.е. нечеткое число определяется как нечеткое множество А на множестве действительных чисел ℝ с функцией принадлежности μ А (х ) ϵ , где х - действительное число, т.е. х ϵ ℝ.

Нечеткое число А нормально, если тах μ А (x ) = 1; выпуклое, если для любых х у z выполняется

μ А (х) μ А (у ) ˄ μ A (z ).

Множество α -уровня нечеткого числа А определяется как

Аα = {x /μ α (x ) ≥ α }.

Подмножество S A ⊂ ℝ называется носителем нечеткого числа А, если

S A = { x/μ A (x) > 0 }.

Нечеткое число А унимодально, если условие μ А (х ) = 1 спра­ведливо только для одной точки действительной оси.

Выпуклое нечеткое число А называется нечетким нулем, если

μ А (0) = sup (μ A (x )).

Нечеткое число А положительно, если ∀x ϵ S A , х > 0 и отрицательно, если ∀х ϵ S A , х < 0.

Нечеткие числа (L-R)-Tипа

Нечеткие числа (L-R)-типа - это разновидность нечетких чисел специального вида, т.е. задаваемых по определенным правилам с целью снижения объема вычислений при операциях над ними.

Функции принадлежности нечетких чисел (L-R)-типa задаются с помощью невозрастающих на множестве неотрицательных дей­ствительных чисел функций действительного переменного L(x ) и R(x ), удовлетворяющих свойствам:

а) L(-x ) = L(x ), R(-x ) = R(x );

б) L(0) = R(0).

Очевидно, что к классу (L-R)-функций относятся функции, графики которых имеют вид, приведенный на рис. 1.7.

Рис. 1.7. Возможный вид (L-R)-функций

Примерами аналитического задания (L-R)-функций могут быть

Пусть L(у )и R(у )- функции (L-R)-типа (конкретные). Уни­модальное нечеткое число А с модой а (т. е. μ А (а ) = 1) с помощью L(у )и R(у ) задается следующим образом:

где а - мода; α > 0, β > 0 - левый и правый коэффициенты нечеткости.

Таким образом, при заданных L(у )и R(у ) нечеткое число (уни­модальное) задается тройкой А = (а , α, β ).

Толерантное нечеткое число задается, соответственно, четвер­кой параметров А = (a 1 , а 2 , α, β ), где а 1 иа 2 - границы толе­рантности, т.е. в промежутке [a 1 , а 2 ] значение функции принад­лежности равно 1.

Примеры графиков функций принадлежности нечетких чисел (L-R)-типа приведены на рис. 1.8.

Рис. 1.8. Примеры графиков функций принадлежности нечетких чисел (L-R)-типа

Отметим, что в конкретных ситуациях функции L(у), R(у), а также параметры а, β нечетких чисел , α, β ) и (a 1 , а 2 , α, β ) должны подбираться таким образом, чтобы результат операции (сложения, вычитания, деления и т.д.) был точно или приблизи­тельно равен нечеткому числу с теми же L(у) и R(у), а параметры α" и β" результата не выходили за рамки ограничений на эти па­раметры для исходных нечетких чисел, особенно если результат в дальнейшем будет участвовать в операциях.

Замечание . Решение задач математического моделирова­ния сложных систем с применением аппарата нечетких множеств требует выполнения большого объема операций над разного рода лингвистическими и другими нечеткими переменными. Для удоб­ства исполнения операций, а также для ввода-вывода и хранения данных, желательно работать с функциями принадлежности стан­дартного вида.

Нечеткие множества, которыми приходится оперировать в боль­шинстве задач, являются, как правило, унимодальными и нор­мальными. Одним из возможных методов аппроксимации унимо­дальных нечетких множеств является аппроксимация с помощью функций (L-R)-типа.

Примеры (L-R)-представлений некоторых лингвистических пе­ременных приведены в табл. 1.2.

Таблица 1.2. Возможное (L-R)-представление некоторых лингвистических переменных

Нечеткие отношения

Нечеткие отношения играют фундаментальную роль в теории нечетких систем. Аппарат теории нечетких отношений используется при построении теории нечетких автоматов, при моделировании структуры сложных систем, при анализе процессов принятия решений.

Основные определения

Теория нечетких отношений находит также приложение в задачах, в которых традиционно применяется теория обычных (четких) отношений. Как правило, аппарат теории четких отношений используется при качественном анализе взаимосвязей между объектами исследуемой системы, когда связи носят дихотомический характер и могут быть проинтерпретированы в терминах "связь присутствует", "связь отсутствует", либо когда методы количественного анализа взаимосвязей по каким-либо причинам неприменимы и взаимосвязи искусственно приводятся к дихотомическому виду. Например, когда величина связи между объектами принимает значения из ранговой шкалы, выбор порога на силу связи позволяет преобразовать связь к требуемому виду. Однако, подобный подход, позволяя проводить качественный анализ систем, приводит к потере информации о силе связей между объектами либо требует проведения вычислений при разных порогах на силу связей. Этого недостатка лишены методы анализа данных, основанные на теории нечетких отношений , которые позволяют проводить качественный анализ систем с учетом различия в силе связей между объектами системы.

Обычное неразмытое -арное отношение определяется как подмножество декартова произведения множеств

Подобно нечеткому множеству, нечеткое отношение можно задать с помощью его функции принадлежности

где в общем случае будем считать, что - это полная дистрибутивная решетка. Таким образом, - это частично упорядоченное множество, в котором любое непустое подмножество имеет наибольшую нижнюю и наименьшую верхнюю грани иоперации пересечения и объединения в удовлетворяют законам дистрибутивности. Все операции над нечеткими отношениями определяются с помощью этих операций из . Например, если в качестве взять ограниченное множество вещественных чисел, то операциями пересечения и объединения в будут, соответственно, операции и , и этиоперации будут определять и операции над нечеткими отношениями .

Если множества и конечны, нечеткое отношение между и можно представить с помощью его матрицы отношения , первой строке и первому столбцу которой ставятся в соответствие элементы множеств и , а на пересечении строки и столбца помещается элемент (см. табл.2.1).

Таблица 2.1.
0,5 0,8
0,7 0,6 0,3
0,7 0,4

В случае, когда множества и совпадают, нечеткое отношение называют нечетким отношением на множестве X.

В случае конечных или счетных универсальных множеств очевидна интерпретация нечеткого отношения в виде взвешенного графа , в котором каждая пара вершин из соединяется ребром с весом .

Пример . Пусть и , тогда нечеткий граф , изображенный на рис рис. 2.1, задает некотороенечеткое отношение .

Рис. 2.1.

Свойства нечетких отношений

Различные типы нечетких отношений определяются с помощью свойств, аналогичных свойствам обычных отношений, причем для нечетких отношений можно указать различные способы обобщения этих свойств.

1. Рефлексивность :

2. Слабая рефлексивность :

3. Сильная рефлексивность :

4. Антирефлексивность :

5. Слабая антирефлексивность :

6. Сильная антирефлексивность :

7. Симметричность :

8. Антисимметричность :

9. Асимметричность :

10. Сильная линейность :

11. Слабая линейность :

12. Транзитивность :

Проекции нечетких отношений

Важную роль в теории нечетких множеств играет понятие проекции нечеткого отношения . Дадим определение проекции бинарного нечеткого отношения .

Пусть - функция принадлежности нечеткого отношения в . Проекции и отношения на и - есть множества в и с функцией принадлежности вида

Условной проекцией нечеткого отношения на , при произвольном фиксированном , называется множество с функцией принадлежности вида .

Аналогично определяется условная проекция на при заданном :

Из данного определения видно, что проекции и не влияют на условные проекции и , соответственно. Дадим далее определение , которое учитывает их взаимосвязь.

Пока инженеры, работавшие в области автоматического управления, занимались переходом от традиционных электромеханических и аналоговых технологий управления на цифровые мехатронные системы управления, объединяющие компьютеризированные алгоритмы анализа и принятия решений, на горизонте появились новые компьютерные технологии, способные вызвать еще более значительные изменения. Нейронные сети и нечеткая логика уже нашли широкое применение и в скором времени способны изменить способы построения и программирования систем автоматического управления.

Традиционные компьютеры имеют фоннеймановскую архитектуру, в основе которой лежит последовательная обработка и выполнение явно заданных команд. Искусственные нейронные сети (ИНС) строятся на базе другой архитектуры. Они собираются из очень простых процессорных блоков, объединенных в систему с высоким уровнем параллелизма. Эта система выполняет неявные команды, в основе которых лежит распознавание образов на входах данных от внешних истоков.

Нечеткая логика так же переворачивает традиционные представления с ног на голову. Вместо результатов точных измерений, устанавливающих положение величины на заданной шкале (например «температура 23 о C»), нечеткая информация показывает степень принадлежности к нечетко определенным перекрывающимся множествам («на более холодной стороне теплого»).

Определения

Компьютеры (или, более точно, «машины логического вывода»), использующие эти концепции, способны решать сложные задачи, которые оказываются не по силам традиционным системам управления.

Искусственная нейронная сеть (ИНС), согласно Викпедии, – это «взаимосвязанная совокупность искусственных ‘нейронов’, которая использует математическую или вычислительную модель для обработки информации, опирающейся на связанность вычислителей».

В большинстве случаев ИНС представляет адаптивную систему, которая изменяет свою структуру под влиянием внешней или внутренней информации, проходящей через сеть. Вместо расчета числовых результатов по входным числовым данным ИНС моделируют сложные взаимосвязи между входами и выходами или обнаруживают закономерности в данных.

Элементарные узлы (называемые также «нейроны», «нейроды», «процессорные элементы» или «блоки») соединяются вместе и образуют сеть узлов. Полезный эффект от их применения вытекает из способности реализовывать алгоритмы логического вывода, которые изменяют силы или веса сетевых соединений для получения необходимого потока сигнала.

В этом примере искусственной нейронной сети переменная h, представляющая трехмерный вектор, зависит от входной переменной x. Далее g, двумерная векторная переменная, зависит от h, и, наконец, выходная переменная f зависит от g.

Наиболее интересна возможность обучения, которая на практике означает оптимизацию некоторой величины, часто называемой «ценой», которая показывает правильность результата в контексте решаемой задачи.

Например, цена в классической задаче коммивояжера – это время, необходимое для полного объезда территории торговли с остановками во всех требуемых пунктах и прибытия в исходную точку. Более короткий маршрут дает лучшее решение.

Для решения этой задачи фон-неймановские компьютеры должны установить все возможные маршруты, после чего по очереди проверить каждый маршрут, складывая временные задержки для определения суммарной задержки для данного маршрута.После вычисления сумм для всех возможных маршрутов компьютер просто выбирает самый короткий.

В отличие от этого ИНС рассматривают все маршруты параллельно с целью нахождения конфигураций, которые минимизируют полное время маршрута. Использование этих конфигураций минимизирует итоговый маршрут. Обучение состоит в определении конфигураций, которые на основе предыдущего опыта обеспечивают стратегии оптимизации маршрута.

Нечеткая логика (снова согласно Викпедии) выведена из теории нечетких множеств, имеющей дело с рассуждениями, которые в большей степени являются приближенными, чем точным. Истинность в нечеткой логике показывает принадлежность к нечетко определенным множествам. В нечеткой логике решения могут быть приняты на основе неточно определенных, но, тем менее, очень важных характеристик. Нечеткая логика допускает изменение значений принадлежности к множеству в диапазоне 0 до 1 включительно, а также использование таких неопределенных понятий, как “немного”, “до некоторой степени”и“очень”. Это особым образом позволяет реализовывать частичную принадлежность к множеству.

Основное приложение можно описать поддиапазонами непрерывной переменной. Например, диапазон температур антиблокировочной тормозной системы может иметь несколько отдельных функций принадлежности, определяющих температурные интервалы, необходимые для правильного управления тормозами. Каждая функция отображает принадлежность значения температуры к истинностному значению в диапазоне 0 до 1 . Эти истинностные значения могут использоваться далее для выбора способа управления тормозной системы.

Быстрая нечеткая логика для управления в реальном времени

Несмотря на то, что любой микроконтроллер или компьютер могут реализовать алгоритмы нечеткой логики в программном виде, это может оказаться неэффективным из-за низкого быстродействия и потребности в большом объеме памяти. Джим Сибигтрот, системный инженер по автомобильной продукции отделения микроконтроллеров Transportation and Standard Products Group, входящей в Freescale Semiconductor, говорит, что микроконтроллеры HC12 и HCS12 компании очень эффективно решают эту задачу за счет добавления четырех команд, специально разработанных для реализации основных частей механизма логического вывода нечеткой логики.

«Основная программа для универсального механизма логического вывода, которая обрабатывает невзвешенные правила, занимает приблизительно 57 байтов объектного кода (приблизительно 24 строки ассемблерного кода)», – сообщает он.

Сибигтрот отмечает, что модель HCS12 с частотой 25 МГц может выполнить полную последовательность вывода для двух входных и одного выходного параметра с семью пометками для каждого входа и выхода примерно за 20 мкс. Эквивалентная программа для MC68HC11 с частотой 8 МГц (без команд нечеткой логики) заняла бы приблизительно 250 байтов объектного кода и примерно 750 мкс времени. Даже если бы MC68HC11 мог обработать программу с такой же скоростью, что и HCS12, команды нечеткой логики уменьшают программу в 4 раза и сокращают время выполнения в 12 раз. Такие короткие интервалы распознавания позволяют использовать алгоритмы нечеткой логики в системах управления в режиме реального времени без дорогостоящего компьютерного оборудования или больших программ.

Обработка изображений

С помощью принятия решений в ИНС, основанной на нечеткой логике, можно создать мощную систему управления. Очевидно, что две эти концепции хорошо работают вместе: алгоритм логического вывода с тремя нечеткими состояниями (например, холодный, теплый, горячий) мог бы быть реализован в аппаратном виде при использовании истинностных значений (0.8, 0.2, 0.0) в качестве входных значений для трех нейронов, каждый из которых представляет одно из трех множеств. Каждый нейрон обрабатывает входную величину в соответствии со своей функцией и получает выходное значение, которое далее будет входным значением для второго слоя нейронов, и т.д.

Например, нейрокомпьютер для обработки изображений может снять многочисленные ограничения по видеозаписи,освещению и настройкам аппаратуры. Такая степень свободы становится возможной благодаря тому, что нейронная сеть позволяет построить механизм распознавания с помощью изучения примеров. В результате система может быть обучена распознаванию годных и бракованных изделий при сильном и слабом освещении, при их расположении под разными углами и т.д. Механизм логического вывода начинает работать с“оценки”условий освещения (другими словами, устанавливает степень сходства с другими условиями освещения, при которых система знает, как действовать). После этого система выносит решение о содержании изображения используя критерии, основанные на данных условиях освещения. Поскольку система рассматривает условия освещения как нечеткие понятия, механизм логического вывода легко определяет новые условия по известным примерам.

Чем больше примеров изучает система, тем больший опыт приобретает механизм обработки изображений. Этот процесс обучения может быть достаточно легко автоматизирован, например, за счет предварительной сортировки по группам деталей с близкими свойствами для обучения по областям сходств и различий. Эти наблюдаемые сходства и различия могут далее предоставлять информацию ИНС, задача которой состоит в сортировке поступающих деталей по этим категориям. Таким образом, успех работы системы зависит не от стоимости оборудования, а от количества изображений, необходимых для обучения и построения надежного механизма логического вывода.

Нейрокомпьютер для обработки изображений подходит для приложений,где диагностика опирается на опыт и экспертную оценку оператора, а не на модели и алгоритмы. Процессор может построить механизм распознавания из простых комментариев к изображению, сделанных оператором, затем извлечь характеристики или векторы признаков из объектов, снабженных комментариями, и передать их в нейронную сеть. Векторы признаков, описывающие видимые объекты, могут быть такими простыми как значения строки пикселей, гистограмма или распределение интенсивности, профили распределения интенсивности или градиенты по соответствующим осям. Более сложные признаки могут включать элементы вейвлет-преобразования и быстрого преобразования Фурье.

Обобщения

После обучения на примерах нейронная сеть способна к обобщению и может классифицировать ситуации, никогда ранее не наблюдавшиеся, связывая их со схожими ситуациям из примеров. С другой стороны, если система склонна к излишней свободе и обобщению ситуаций, ее поведение в любое время может быть скорректировано за счет обучения противоположным примерам.

С точки зрения нейронной сети эта операция заключается в уменьшении областей влияния существующих нейронов для согласования с новыми примерами, которые находятся в противоречии с существующим отображением пространства решений.

Важным фактором, определяющим признание ИНС, является самостоятельное и адаптивное обучение. Это означает, что устройство должно обладать способностью изучать объект с минимальным участием оператора или вообще без его вмешательства. В будущем, например, куклы, могли бы узнавать лицо ребенка, разворачивающего их впервые, и спрашивать его имя. Самостоятельное обучение для сотового телефона могло бы заключаться в изучении отпечатка пальца его первого владельца. Идентификация владельца также может быть усилена за счет совмещения в одном устройстве распознавания лица, отпечатка пальца и речи.

В условиях самостоятельного обучения устройство должно строить свой собственный механизм распознавания, который будет лучше всего функционировать в его рабочей среде. Например, интеллектуальная кукла должна распознать своего первоначального владельца независимо от цвета его волос и кожи, местонахождения или времени года.

На первых порах механизм должен использовать все методики выделения признаков, которые он знает. Это приведет к формированию ряда промежуточных механизмов, каждый из которых предназначен для идентификации тех же самых категорий объектов, но основан на наблюдении различных особенностей (цвет, зернистость, контраст, толщина границ и т.д.). После этого общий механизм может дать оценку работе промежуточных механизмов, выбирая те из них, которые дают лучшую производительность и/или точность.

Пример сортировки рыбы

Компания PiscesVMK производит технологическое оборудование для переработки рыбы на борту и на прибрежных заводах. Клиенты фирмы – рыбоперерабатывающие суда, выполняющие круглогодичный лов различных сортов рыбы в Северном море и Атлантическом океане. Эти потребители хотят заполнить свои трюмы как можно быстрее уловом наивысшего качества при минимальной численности работников.

Как правило, рыба доставляется на борт с помощью сетей и выгружается в емкости на конвейере, который переносит их через машины очистки, нарезки и филетирования. Возможные отклонения включают неподходящий сорт, повреждение рыбы, наличие больше одной рыбы в емкости и ее неправильное положение перед поступлением в машину нарезки. Реализация такого контроля традиционными средствами обработки изображений затруднена, поскольку размеры, форму и объем сложно описать математически. Кроме того, эти параметры могут меняться в зависимости от места плавания и сезона.

Pisces установила более 20 систем, базирующихся на интеллектуальной камере Iris от Matrox и механизме распознавания CogniSight от General Vision. Камера монтируется над конвейером так, чтобы рыба проходила под ней как раз перед попаданием в филетирующую машину. Камера связана с контроллером Siemens Simatic S7-224 (ПЛК) и с локальной сетью (LAN). Стробоскопический источник света, установленный рядом с камерой, запускается каждый раз, когда новая емкость появляется в поле зрения. Соединение камеры с локальной сетью необходимо для выполнения трех операций: настройки преобразователя, гарантирующей фокусировку и надлежащий контраст изображения, обучения механизма распознавания и доступа к статистике, непрерывно сообщающей о количестве кондиционной и некондиционной рыбы.

Настройка преобразователя происходит только однажды во время установки камеры в водонепроницаемом корпусе. Обучение выполняется в начале каждого плавания с помощью образцов рыбы из первого улова или с помощью загрузки уже существующего файла.

Как только камера получает базу знаний, она может начать распознавание рыбы автономно, без связи с персональным компьютером. ИНС сортирует ее по категориям «принято», «забраковано», «на переработку» или «пусто». Этот сигнал идет в ПЛК, управляющий двумя щетками, которые направляют соответствующую рыбу в емкости для удаления или переработки. ПЛК также связан с магнитным датчиком, который вырабатывает сигнал запуска каждый раз, когда емкость с рыбой проходит под камерой.

В настоящее время Pisces уже установила более 20 систем на 5 различных рыболовецких флотилиях в Норвегии, Исландии, Шотландии и Дании. Система оценивает 360 конвейерных емкостей в минуту на линиях сельди, но она может работать еще быстрее.

Для сети из 80 нейронов достигнута 98%-ая точность при классификации 16 тонн рыбы. Рыбаки довольны системой благодаря ее надежности, гибкости и легкости в использовании. Преимущества: сокращение срока плавания, повышение качества улова и доходов, распределяемых между меньшим числом рыбаков.

В средствах дискретного производства нейронные сети нашли применение в управлении транспортными средствами, распознавании образов в радарных системах, опознавании личности, распознавании объектов, рукописного текста, жестов и речи.

Нечеткая логика уже используется для управления автомобилем и другими подсистемами транспортного средства, такими как система ABS и круиз-контроль, а также кондиционерами, камерами, цифровой обработкой изображений, искусственным интеллектом компьютерных игр и распознаванием образов в удаленных сенсорных системах.

Подобные технологии «мягких вычислений» также используются для создания надежных зарядных устройство для батарей дыхательного аппарата. В отраслях непрерывного и периодического производства нечеткая логика и нейронные сети являются основой некоторых самонастраивающихся регуляторов. Некоторые микроконтроллеры и микропроцессоры оптимизированы для работы с нечеткой логикой, так что системы могут работать еще быстрей (см. ниже “Быстрая нечеткая логика для управления в реальном времени”).

1

Мищенко В.А. 1 Коробкин А.А. 2

1 Воронежский государственный педагогический университет, Воронеж

2 Воронежский государственный университет, Воронеж

В данной статье рассмотрены принципы построения систем, основанных на нечеткой логике, кроме того, определен принцип построения логического вывода. Также рассматривается структура организации нечетких нейронных сетей на примере сети Ванга – Менделя. Описывается схема организации такой сети, ее структура, в частности, определены слои нейронной сети и описаны принципы функционирования каждого слоя. Кроме того, рассмотрен процесс обучения нечеткой нейронной сети Ванга – Менделя, включающий в себя подстройку весовых коэффициентов сети и настройку параметров функции Гауса. А также рассмотрен процесс обучения сети в случае, когда нахождения решения процесса обучения невозможно, а поиск параметров осуществляется таким образом, что все условия выполняются в некоторой степени. Также в статье проведен сравнительный анализ различных типов архитектур интеллектуальных систем.

нечеткая логика

нечеткие нейронные сети

1. Аксенов С.В., Новосельцев В.Б. Организация и использование нейронных сетей (методы и технологии) / Под общ. ред. В.Б. Новосельцева. – Томск: Изд-во НТЛ, 2006. – 128 с.

2. Батыршин И.З. Нечеткие гибридные системы. Теория и практика / Под ред. Н.Г. Ярушкиной. – М.ФИЗМАТЛИТ, 2007. – 208 с.

3. Осовский С. Нейронные сети для обработки информации / Пер. с польского И.Д. Рудинского. – М.: Финансы и статистика, 2002. – 344 с.

5. Яхъева Г.Э. Нечеткие множества и нейронные сети: Учебное пособие / Г.Э. Яхъева. – М.: Интернет-Университет Информационных технологий; БИНОМ. Лаборатория знаний, 2006. – 316 с.

Используемая в различных видах систем модель на основе нечеткой логики представляет собой базу знаний, построенную специалистами предметной области как множество нечетких правил вида:

Если x есть A 1 , то y есть B 1 ,

Если x есть A 2 , то y есть B 2 ,

Если x есть A n , то y есть B n ,

где х и y - входная и выходная переменная соответственно, а А и В - функции принадлежности .

Нечеткий логический вывод формируется в несколько шагов:

  • введение нечеткости: на этом этапе функции принадлежности применяются к фактическим значениям входных переменных;
  • логический вывод: вычисляется значение истинности для предпосылок каждого правила и применяется к заключениям каждого правила. Это приводит к одному нечеткому подмножеству, которое будет назначено каждой переменной вывода для каждого правила;
  • композиция: нечеткие подмножества, назначенные каждой переменной вывода, объединяют в одно множество для всех переменных вывода;
  • приведение к четкости: используется в случаях, когда необходимо преобразовать нечеткий набор выводов в четкое число.

На этих принципах построено большое количество сетей, рассмотрим подробнее одну из них - сеть Ванга - Менделя. Структура такой сети представляет собой четырехслойную нейронную сеть, в которой первый слой выполняет фазификацию входных переменных, второй - агрегирование значений активации условия, третий - агрегирование М правил вывода (первый нейрон) и генерацию нормализующего сигнала (второй нейрон), тогда как состоящий из одного нейрона выходной слой осуществляет нормализацию, формируя выходной сигнал .

В этой сети первый и третий слой являются параметрическими: первый слой содержит M* N*2 параметров функции Гаусса, а третий - М параметров w i.

Выходной сигнал сети Ванга - Менделя рассчитывается по формуле:

, (1)

где w i - весовой коэффициент, μ ij () - функция Гаусса с параметрами математического ожидания, которое определяет центр c ij и параметрами разброса, которые определяются средним квадратическим отклонением d ij ,

- функция Гаусса.

Рис. 1. Структура сети Ванга - Менделя

Задача сети состоит в построении такого отображения пар данных (x, d ), чтобы ожидаемое значение, соответствующее входному вектору x , формировалось выходной функцией y(x) .

Обучение нечетких сетей, также как и классических сетей, может проводиться по алгоритму с учителем, основанному на минимизации целевой функции, задаваемой с использованием евклидовой нормы как

, где p - количество обучающих пар (x, d ).

Для обучения нечеткой нейронной сети применяют алгоритм, включающий последовательное чередование следующих шагов:

  • для фиксированных значений параметров c ij и d i j первого слоя вычисляются значения параметров w i третьего слоя сети;
  • при зафиксированных значениях параметров w i третьего слоя уточняются параметры c ij и d ij первого слоя сети.

Таким образом, на первом этапе для K обучающих выборок , k=1, 2, ... K , получаем систему K линейных уравнений , где W - вектор, составленный из линейных коэффициентов w i , D - вектор эталонных ответов сети, . Количество строк K матрицы PV значительно больше количества ее столбцов. Решение этой системы линейных алгебраических уравнений может быть получено за один шаг следующим образом: , где - псевдообратная матрица для матрицы PV .

На втором этапе фиксируются значения коэффициентов полиномов третьего слоя и осуществляется уточнение (обычно многократное) коэффициентов функции Гаусса для первого слоя сети стандартным методом градиента: , , где k - номер очередного цикла обучения, v c - скорость обучения для коэффициентов c ij , v d - скорость обучения для коэффициентов d ij , - ошибка сети, где L - общее число обучающих выборок, y l - выход сети Ванга-Менделя для данной выборки, - эталонное значение выхода сети Ванга - Менделя .

Производные и вычисляются по формулам:

, .

Производные и можно найти по формулам:

, ,

где - функция Гаусса

Поскольку в череде этапов этап уточнения параметров функции Гаусса имеет много меньшую скорость сходимости, то в ходе обучения реализацию этапа 1, как правило, сопровождает реализация нескольких этапов 2.

Часто требуется найти «решение» системы, которая решений (в обычном смысле) не имеет. Выходом из ситуации является нахождение таких значений неизвестных параметров, что все условия системы выполняются «в некоторой степени».

Матрица A + называется псевдообратной матрицей для матрицы A , если . Отсюда сразу вытекает, что если матрица A имеет размер m x n , то псевдообратная матрица A + имеет размер n x m .

Опишем и другой, часто встречающийся в литературе подход к определению этого понятия. Сначала введём понятие псевдорешения системы уравнений. Пусть нам дана система уравнений

где A - матрица размера m x n , b - вектор из m элементов.

Любое решение этой системы является также и решением системы

Псевдорешением системы (2) называется решение системы (3) с минимальной нормой среди всех столбцов, имеющих минимальную невязку (норма вектора равна квадратному корню из суммы квадратов компонент вектора, а невязкой решения системы (2) называется норма вектора Ax-b ).

Псевдообратной матрицей для матрицы A размера m x n называется матрица A + , столбцы которой - псевдорешения систем вида Ax=e i ,

где e i - i -ый столбец единичной матрицы порядка m .

К универсальным способам нахождения псевдообратной матрицы относятся рекуррентные алгоритмы Гревиля и Фадеева. В данной работе приведем алгоритм Гревиля для псевдообращения матриц.

Пусть дана матрица A R min и a k - ее k -й столбец, k = 1, . . ., n .

Пусть A k - матрица, составленная из k первых столбцов матрицы A :

При k = 1: A 1 = a 1 , а при k = 2, . . . , n : ; A n =A.

Матрица A + R min может быть вычислена с помощью рекуррентного алгоритма:

1. Инициализация.

2. Цикл по k =2, ..., n.

, где I - единичная матрица порядка m ,

Полученная на последнем шаге матрица A + n и есть псевдообратная матрица, которая является искомым решением.

Принцип нечеткой логики достаточно давно используется для решения задач, в которых исходные данные являются слабо формализованными или же ненадежными. Основными преимуществами сетей с такой структурой являются:

  • удобство представления информации: описание постановки задачи и условий производится на языке близком к естественному;
  • универсальность: согласно теореме нечеткой аппроксимации, любая математическая модель может быть аппроксимирована системой, построенной на нечеткой логике;
  • эффективность: ряд теорем, подобных теоремам о полноте для искусственных нейронных сетей, показывают высокую эффективность работы таких сетей.

Однако, такой организации нейронных сетей присущ и ряд недостатков:

  • исходный набор нечетких правил формируется человеком, что не всегда является объективным, а иногда неполным или даже противоречивым;
  • вид и параметры данных, связывающих вход и выход, также определяются субъективно и не всегда отражают действительность.

Каждый тип архитектуры интеллектуальных систем обладает своими особенностями в части обучения сети, обработки данных и вычисления конечного результата, что позволяет использовать одни типы архитектур для решения задач, к которым не применимы другие. Так, например, использование искусственных нейронных сетей в задачах по распознаванию образов имеет широкое применение, однако, объяснить принцип работы сетей достаточно сложно. Сети могут самостоятельно получать данные и обрабатывать их, однако, процесс обучения сетей достаточно долог, кроме того, анализ полученной в конечном итоге сети достаточно сложен. При этом, ввод в нейронную сеть какой-либо заранее достоверной информации не возможен .

Рассматривая системы, построенные на нечеткой логике, можно утверждать обратное - данные, получаемые на выходе таких систем, легки в понимании, однако, такие системы не могут самостоятельно получать информацию, которую можно использовать в дальнейшем при формировании выходных данных.

Как мы видим, искусственные нейронные сети и системы с нечеткой логикой схожи между собой, однако, каждая из них имеет свои достоинства и недостатки. Данный вывод был взят за основу при создании нечетких нейронных сетей. Такие сети строят решение на основе аппарата нечеткой логики, однако функции принадлежности настраиваются с помощью алгоритмов обучения искусственных нейронных сетей . Кроме того, такие сети не только могут обучаться, но и способны учитывать априорную информацию. По своей структуре нечеткие нейронные сети схожи с многослойными сетями, например, с сетью, обучающейся по алгоритму обратного распространения, но скрытые слои в нечетких сетях соответствуют этапам работы нечеткой системы: первый слой производит введение нечеткости, исходя из заданных признаков входов; второй слой определяет множество нечетких правил; третий слой выполняет функцию приведения к четкости. В каждом из указанных слоев имеется набор параметров, настройка которых производится так же, как и настройка обычной нейронной сети.

Рецензенты:

  • Шашкин А.И., д.ф.-м.н., зав. кафедрой математического и прикладного анализа ФГБОУ ВПО «Воронежский государственный университет», г. Воронеж.
  • Кургалин С.Д., д.ф.-м.н., зав. кафедрой цифровых технологий ФГБОУ ВПО «Воронежский государственный университет», г. Воронеж.

Библиографическая ссылка

Мищенко В.А., Коробкин А.А. ПРИНЦИПЫ НЕЧЕТКОЙ ЛОГИКИ НА ПРИМЕРЕ НЕЧЕТКИХ НЕЙРОННЫХ СЕТЕЙ // Современные проблемы науки и образования. – 2012. – № 1.;
URL: http://science-education.ru/ru/article/view?id=5321 (дата обращения: 01.02.2020). Предлагаем вашему вниманию журналы, издающиеся в издательстве «Академия Естествознания»
  • Сергей Савенков

    какой то “куцый” обзор… как будто спешили куда то