Нечіткі множини.�Операції над нечіткими множинами
Засновник
Народився в Баку, Азербайджан якЛотфі Алескерзаде (або Аскер Заде) від російської матері та батька азербайджанця іранського походження; з 1932 року жив у Ірані, навчався Тегеранському університеті; з 1944 у Сполучених Штатах; працює у Каліфорнійському університеті (Берклі).
Приклад
Приклади застосування нечіткої логіки:
Приклади застосування нечіткої логіки: �
Нечітка множина
Основи нечіткої логіки були закладені наприкінці 60-х років у роботах відомого американського математика
Латфі Заде
Тоді нечітка підмножина A універсальної множини E визначається як множина упорядкованих пар
,
де - характеристична функція приналежності (або просто функція приналежності), що приймає значення у певній впорядкованій множині M (наприклад, M = [0,1]).
Функція належності вказує рівень приналежності елемента x до підмножини A.
18
Приклади запису нечіткої множини
x1 | x2 | x3 | x4 | x5 |
0,2 | 0 | 0,4 | 1 | 0,7 |
Приклад нечіткої множини
Основні характеристики нечітких множин
Нехай М=[0,1] та А – нечітка множина з елементами з універсальної множини Е і множиною належності М.
Висота: .
Якщо , то нечітка множина А нормована.
Якщо , то нечітка множина А субнормальна.
20
Лінгвістична змінна «Вік»
Нехай маємо завдання інтерпретації значень ЛП «вік»,таких як «молодий» вік, «похилий» вік або «перехідний» вік. Визначимо "вік" як ЛП. Тоді «молодий», «похилий», «перехідний» будуть значеннями цієї лінгвістичної змінної. Більше повний базовий набір значень ЛП «вік» наступний:
В={немовля, дитячий, юний, молодий, зрілий, похилий, старечий}.
Для ЛП «вік» базова шкала - це числова шкала від 0 до 120, що позначає кількість прожитих років, а функція власності визначає, наскільки ми впевнені в тому, що ця кількість років можна віднести до цієї категорії віку.
11
09:31
Методи визначення функції належності
LR нечіткі числа
Операції над нечіткими множинами
Логічні операції
1.Включення. Нехай А і В – нечіткі множини на універсальній множині Е. Тоді А міститься в В, якщо
.
Позначення:
2.Рівність. А і В рівні, якщо
Позначення: А = В
3.Доповнення. Нехай М = [0,1], А і В - нечіткі множини, задані на Е. А і В доповнюють один одного, якщо
Позначення:
4.Перетин - найбільша нечітка підмножина, що містить одночасно А і В ( ):
5.Об'єднання – найменша нечітке підмножина, що включає як А, і В, з функцією належності ( ):
6.Різниця – операція з функцією належності ( ):
7.Диз'юнктивна сума – логічна операція із функцією
належності ( ):
Приклад
Лінгвістичний сенс «дуже»
Лінгвістичний сенс
"не дуже"
Посилення чи ослаблення лінгвістичних понять
Посилення чи ослаблення лінгвістичних понять досягається запровадженням спеціальних квантифікаторів. Наприклад, якщо поняття «старечий вік» визначається як
то поняття «дуже старечий вік» визначиться як
тобто НМ для «дуже старечий вік» виглядатиме так
Приклад
Трикутні норми та конорми
Трикутна норма Трикутна конорма
2.Алгебраїчна сума цих множин позначається
і визначається так:
На основі операції алгебраїчного твору визначається операціязведення у ступіньα нечіткої множини, де α – позитивне число. Нечітка множина визначається функцією приналежності.
Окремим випадком зведення на ступінь є такі.
3. Операціяконцентрування (ущільнення)
4. Операціярозтягнення
5.Розмноження на число. Якщо α – позитивне число, таке що
, то нечітка множина αА має функцію
приладдя:
Алгебраїчні операції
і визначається так:
Приклад застосування трикутних норм та конорм
Нечіткі стосунки.�Операції над нечіткими відносинами
Нечітка логіка та нейронні мережі
Приклад нечіткого відношення
Приклад подання 1
Приклад подання 2
Модель "Ринок-Продукція"
Операції над нечіткими відносинами
Операції над нечіткими відносинами
Приклад поєднання нечітких відносин
Приклад перетину нечітких відносин
Приклади композицій
Приклади композицій
Композиція двох нечітких відносин
R1 | |||
| y1 | y2 | y3 |
x1 | 0,1 | 0,7 | 0,4 |
x2 | 1 | 0,5 | 0 |
R2 | ||||
| z1 | z2 | z3 | z4 |
y1 | 0,9 | 0 | 1 | 0,2 |
y2 | 0,3 | 0,6 | 0 | 0,9 |
y3 | 0,1 | 1 | 0 | 0,5 |
R1∙R2 | ||||
| z1 | z2 | z3 | z4 |
x1 | 0,3 | 0,6 | 0,1 | 0,7 |
x2 | 0,9 | 0,5 | 1 | 0,5 |
•
=
Вибір кандидатів на навчання
Вибір кандидатів на навчання
Нечітка і лінгвістична змінні. Нечіткі числа
Нечітка логіка та нейронні мережі
Визначення нечіткою зміною
Приклад:нечітка змінна"високий зріст"
Х - «високий зріст»(найменування
змінної),
елементів з універсуXданої
нечіткої змінної.
Пояснення:Нечітка змінна - іменованенечітка безліч
Визначення лінгвістичної змінної
Приклад: ЛП"температура в кімнаті"
β="температура в кімнаті" - ім'я лінгвістичної змінної;
U= [5,35] -універс визначення;
T = {"холодно", "комфортно", "жарко"}-базова терм-множина;
G-синтаксичні правила, що породжують нові терми з використанням
квантифікаторів "і", "або", "не", "дуже", "більш менш";
М -процедура, що ставить кожному новому терму у відповідність
функцію приналежності (тобто ставлячинечітка безліч) за правилами: якщо терми А та В мали функції приналежності μа(x) та μB(x) відповідно, то нові терми матимуть функції приналежності:
Квантифікатор | Функція приладдя: |
не t | |
дуже t | |
більш-менш t | |
А і В | max(μA(x), μB(x)) |
А чи В | min(μA(x), μB(x)) |
Приклад:ЛП «дисципліна»
Приклад:товщина деталі
Нехай експерт визначає товщину виробу за допомогою понять «мала товщина», «середня товщина» та «велика товщина», При цьому мінімальна товщина дорівнює 10 мм, а максимальна – 80 мм.
Формалізація такого опису може бути проведена за допомогою наступної лінгвістичної змінної <β, T, X, G, M>, де
Приклад:товщина деталі
Функції приналежності нечітких множин:�«мала товщина»= А1, «середня товщина» = А2, «велика товщина» = А3
Функція приладдя�нечіткої множинимала або середня товщина» = А1U А1
Види ЛП
ЛП
Числовые
Нечисловые
Швидкість
Розмір
Вік
Дисципліна
Гравець команди
Банк
Нечіткі числа
Нечіткі числа– нечіткі змінні, визначені числової осі, тобто. нечітке число визначається як нечітке безлічАна безлічіRcфункцією власності
Нечітке число— це нечітка підмножина універсальної множини дійсних чисел, що має нормальну та опуклу функцію приналежності, тобто таку, що:
а) існує значення носія, в якому функція приналежності дорівнює одиниці, а також
b) при відступі від свого максимуму ліворуч або праворуч функція приналежності не зростає.
Приклад:
«Товщина» (Т = {«мала товщина», «середня товщина», «велика товщина»})
Можливі значення, що залежать від області визначенняU: у цьому випадку значення лінгвістичної змінної «товщина виробу» можуть бути визначені як «близько 20 мм», «близько 50 мм», «близько 70 мм», тобто у виглядінечітких чисел.
Операції над нечіткими числами
LRнечіткі числа
LRнечіткі числа
LRнечіткі числа
Якщо ми оцінюємо параметр якісно, наприклад, кажучи: "Це значення параметра єсереднім", необхідно ввести уточнююче висловлювання типу"Середнєзначення - цеприблизновідa доb", яке є предметом експертної оцінки (нечіткої класифікації), і тоді можна використовувати для моделювання нечітких класифікацій трапезоїдні числа.
!!!це найприродніший спосіб невпевненої класифікації.
Трикутні числа формалізують висловлювання типу"приблизно одно α". Зрозуміло, щоα+σ≈α, причому в міру спаданняσ До нуля ступінь упевненості в оцінці зростає до одиниці.
Нечіткий висновок
Нечітка логіка та нейронні мережі
Нечітке (логіко-лінгвістичне) моделювання
Фаззифікатор
Блок нечіткого логічного висновку
Нечітка база правил
Дефаззифікатор
X
A
⊆
Y
B
⊆
Y
y
∈
X
Логіко-лінгвістичний опис систем, нечіткі моделі
L1:Якщо<a11> і/або…і/або<a1m> то<b11 > і/або…і/або<b1n> �L2:Якщо<a21> і/або…і/або<a2m> то<b21> і/або…і/або <b2n>
....................�Lk:Якщо<ak1> і/або…і/або<akm> то<bk1> і/або…і/або<bkn>
Нечіткі висловлювання типів 1 та 2
Логіко-лінгвістичні методи опису систем засновані на тому, що
поведінка досліджуваної системи описується в природному
(або близькою до природної) мови у термінах лінгвістичних змінних.
Логіко-лінгвістичний опис систем, нечіткі моделі
Сукупність імплікацій{L1, L2, ..., Lk}відображає функціональний взаємозв'язок вхідних та вихідних змінних і є основою побудови нечіткого відношенняXRY,заданого на творі XxY універсальних множин вхідних та вихідних змінних.�СтавленняRбудується як.
L1: якщо <A1 > то <B1 >�L2: якщо <A2> то <B2>
....................�Lk : якщо <Ak> то <Bk>
Нечіткі висловлювання типу 3
Система“Набір баскетболістів”
Безліч визначення –[170,236]
Безліч термів-{дуже високий,високий,середній,низький}
Лінгвістичні змінні
Безліч визначення –[0,100]
Безліч термів-{відмінна,дуже хороша,гарна,середня,погана}
Безліч визначення –[0,100]
Безліч термів-{повна,середня,мала,не беремо}
Зростання баскетболіста
Безліч визначення –[170,236]
Дуже високий
високий
середній
низький
Система“Набір баскетболістів”
Система“Набір баскетболістів”
Техніка гри баскетболіста
Безліч визначення –[0,100]
дуже гарна
відмінна
середня
гарна
погана
Система“Набір баскетболістів”
Впевненість прийняття до команди
Безліч визначення –[0,100]
повна
середня
мала
не беремо
Система“Набір баскетболістів”-Правила
Вхідні лінгвістичні змінні | Вихідна ЛП | |
Техніка гри | Зростання гравця | Впевненість відбору |
Чудово | Дуже високий | Повна |
Чудово | Високий | Повна |
Чудово | Не дуже високий | Середня |
Чудово | Низький | Середня |
Дуже добре | Дуже високий | Повна |
Дуже добре | Високий | Повна |
Дуже добре | Не дуже високий | Середня |
Дуже добре | Низький | Середня |
добре | Дуже високий | Повна |
добре | Високий | Повна |
добре | Не дуже високий | Середня |
добре | Низький | Мала |
Не дуже добре | Дуже високий | Середня |
Не дуже добре | Високий | Середня |
Не дуже добре | Не дуже високий | Мала |
Не дуже добре | Низький | Не беремо |
Погано | Дуже високий | Мала |
Погано | Високий | Мала |
Погано | Не дуже високий | Мала |
Погано | Низький | Не беремо |
Схеми нечіткого висновку
Якщо X є Аi і Y є Bi, то z = Zi,деZi- Точне значення.
Алгоритм Мамдані
П1: якщоxєAтодіwєD,
П2: якщоyєBтодіwєE,
П3: якщоzєCтодіwєF,
деx,y,z- Імена вхідних змінних,w- Ім'я змінної висновку, аA,B,C,D,E,F - Задані функції приналежності (трикутної форми).
Передбачається, що вхідні змінні набули деяких конкретних (точних) значень –x0,y0,z0.
15
Алгоритм Мамдані
16
Алгоритм Мамдані
17
Приведення до чіткості (скаляризація)
Приведення до чіткості (скаляризація)
Алгоритм Ларсена
Завдання про керування кондиціонером
Правила:
Завдання про керування кондиціонером
Завдання про керування кондиціонером
Алгоритм Цукамото
Алгоритм Суджено та Такажі
Алгоритм спрощеного вибору
Алгоритм спрощеного вибору
Нейрони та нейронні мережі
Нечітка логіка та нейронні мережі
Нейронні сіті…
- розділ штучного інтелекту, у якому обробки сигналів використовуються явища, аналогічні що у нейронах живих істот.
84
Апроксимація
Класифікація та розпізнавання образів
Прогнозування
Ідентифікація та оцінювання
Асоціативне управління
Завдання, що успішно вирішуються нейромережами
85
Сфери знань
86
Нейрокомп'ютер…
- програмно-технічна система (її також можна назвати спеціалізованою ЕОМ), яка реалізує, або, як то кажуть, забезпечує деяку формальну модель природної нейронної мережі.
87
Програмування нейрокомп'ютерів здійснюється не завданням послідовності команд, а пред'явленням зразків, прикладів вирішення завдань із потрібної області
Історія нейрокомп'ютера
88
Рівень інтересу
40-ті
60-ті
50-ті
70-ті
80-ті
90-ті
ХХIстоліття
перші спроби розробки ІІС на основі нервових клітин
концепція клітинних ансамблів Хебба (Канада)
спад через технічні складності реалізації, розвитку символьного програмування
Розенблатом і Уіндроу створено персептрон – пристрій для розпізнавання образів
передумови
Публікація Хопфілда: Модель Хебба~клас фізичних систем
5000 спеціалістів,> 100компаній
серійний випуск та експлуатація заснованих на нейромережевій технології прикладних систем
1996
Міжнародні конференції з нейромереж (Neural Information Processing Systemsта ін.),
спеціалізовані журнали (Neural Networks, NeuroComputersта ін.)
Деякі відомості про мозок
89
добре вивченаструктура та функції окремих нейронів
Є деякі даніпро організацію внутрішніх та зовнішніх зв'язків між нейронами деяких структурних утворень мозку
Мало відомощодо участі різних структур у процесах переробки інформації.
Найскладніша з відомих систем переробки інформації.
Біологічний нейрон
90
Нервовий імпульс
91
Рефрактерність-відсутність збудливості нервової клітини після попереднього порушення.
Період рефрактерності- мінімальний інтервал часу між нервовими імпульсами (10-4.. 10-3с)
Мембрана
92
Забезпечує проведення нервових імпульсів з волокна
Товщина мембрани близько 10 нм.
Нейроподібний елемент (НПЕ) або формальний нейрон
93
деxi- Вхідні сигнали, сукупністьxi утворює вектор Х;
wi- вагові коефіцієнти, сукупністьwiутворює вектор вагW;
NET- зважена сума вхідних сигналів, значенняNETпередається на нелінійний елемент;
Θ - Пороговий рівеньданого нейрона;
F- Нелінійна функція, званафункцією активації.
|
НПЕ складається з виваженого суматора та нелінійного елемента. Функціонування визначається формулами:
НПЕ має кілька вхідних сигналів х та один вихідний сигналOUT. Параметри НПЕ: вектор вагW, пороговий рівеньΘта вид функції активаціїF.
і
Принцип роботи НПЕ
Цей вхідний сигнал відповідає сигналам, що надходять у синапси біологічних нейронів
Вага є скалярною величиною, позитивною для збудливих і негативною для зв'язків, що гальмують.
94
Види функцій активаціїF
Жорстка сходинка та полога сходинка
96
Жорстка сходинка
+ Проста;
+ Реалізація вимагає малих витрат;
Полога сходинка
+ легко розраховується;
+ Навчання утруднене.
Гіперболічний тангенс та функція Фермі
97
Гіперболічний тангенс
Логістична функція
(функція Фермі)
* застосовується для багатошарових персептронів;
+ Широкий діапазон сигналів;
+ Легке навчання.
* застосовується для мереж із безперервними сигналами;
+ Легке навчання.
Особливі функції активації
98
Вибір функції активації
визначається…
99
Найчастіше вид нелінійності не має принципового впливу на вирішення задачі. Проте вдалий вибір може скоротити час навчання у кілька разів
Обмеження моделі нейрона
100
Нейроподібна мережа
- сукупність нейроподібних елементів, певним чином з'єднаних один з одним та із зовнішнім середовищем.
101
Вхідний вектор (який кодує вхідний вплив або образ зовнішнього середовища) подається на мережу шляхом активації вхідних нейроподібних елементів.
Безліч вихідних сигналів нейронної мережіy1,y2,...,yn називаєтьсявектором вихідної активності, абопатерної активностінейронної мережі.
Особливості архітектури нейромережі
102
обумовлюють конкретний вид виконуваного мережею перетворення інформації
Штучні нейронні мережі
103
Найважливіші властивості біологічних нейромереж
104
Відмінності між біологічними НР та ЕОМ на архітектурі фон Неймана
(С) І.В. Попова
105
| Машина фон Неймана | Біологічна нейронна система |
Процесор | Складний | Простий |
Високошвидкісний | Низькошвидкісний | |
Один чи кілька | Велика кількість | |
Пам'ять | Відокремлена від процесора | Інтегрована у процесор |
Локалізовано | розподілена | |
Адресація не за змістом | Адресація за змістом | |
Обчислення | Централізовані | Розподілені |
Послідовні | Паралельні | |
Програми, що зберігаються | Самонавчання | |
Надійність | Висока вразливість | Живість |
Спеціалізація | Чисельні та символьні операції | Проблеми сприйняття |
Середовище функціонування | Суворо визначена | Погано визначена |
Суворо обмежена | Без обмежень |
Підходи до створення нейронних мереж
Великі роботи у дослідженнях біологічних нейронних мереж належать Ендрю Хакслі, Алану Ходжкіну, Бернарду Катцу, Джону Екклзу, Стівену Куффлеру та ін.
106
Методи дослідження нейроподібних мереж
107
Метод | Особливості |
аналітичне дослідження | -складність через велику кількість НПЕ +цікаві аналітичні результати отримані для багатьох моделейнейроподібнихмереж |
математичне (імітаційне моделювання) | +дає можливість створити практично будь-які моделі -через послідовний характер їх роботи вдається досліджувати моделі обмеженого розміру |
фізичне моделювання | +дозволяє швидко отримати достовірні результати роботи моделі -технічна складність апаратної реалізації великої кількості НПЕ з багатьма адаптивними зв'язками |
Категорії моделей нейронних мереж
108
Види навчання нейронних мереж
109
Алгоритми навчання
110
| З учителем | Без учителя |
Дано | вектор Х, очікувані вихідні сигнали нейронаdj ∈ D | вектор Х |
Підбір значень | фактичні вихідні сигнали нейрона повинні приймати значення, якомога ближче до очікуваних | мережа вчиться давати найкращі значення виходів. Що розуміється під "найкращими" - визначається алгоритмом навчання. |
Нові значення | .. за рахунок здатності до узагальнення мережею, якщо подати на вхід вектор, який не зустрічався під час навчання. | завжди |
Методи навчання МСП
111
класичний
Алгоритм зворотного
поширення помилки
Градієнтні
Евристичні методи
Виявлення градієнта
цільової функції
На основі особистого досвіду
автора у галузі навчання
нейронних мереж
Алгоритм якнайшвидшого спуску
Алгоритм змінної метрики
Алгоритм Левенберга-Марквардта
Алгоритм сполучення градієнтів
Модель МакКаллока-Пітса
112
Вихідний сигнал:
Порогова функція:
Побудова дискретної моделі обґрунтовується проявом рефракції у біологічних нейронів, що призводить до того, що нейрон може змінювати свій стан з кінцевою частотою, причому тривалість періодів бездіяльності залежить від частоти спрацьовування.
Логічні операції
Алгоритм навчання персептрона Маккалока-Піттса
Модель нейрона Хебба
115
Правило Хебба: вагаwij нейрона змінюється пропорційно до твору його вхідного та вихідного сигналів:
деη- Коефіцієнт навчання, значення якого змінюється (0,1)
Під час навчання з учителем:
Стабілізація процесу навчання:
Класифікація нейронних мереж
116
Нейронна мережа
Односпрямовані
Рекурентні
(З зворотним зв'язком)
Одношарові
Багатошарові
Кількість шарів нейронів
Спосіб об'єднання нейронів
Простий персептрон
117
Персептрон Розенблатта
118
Простий персептрон, для якого справедливі умови:
n=m та xi= ri,
при цьому детектори ознак можна розглядати як вхідний шар.
Персептрон Розенблатта мав один шар учнів, на входи якого подавалися сигнали з d = 512 асоціюючих нейронів з випадковими фіксованими вагами, що утворюють ознаковий простір для 400-піксельних образів
Алгоритм навчання персептрона Розенблатта
1.Вектор ваг wiвстановлюється у довільний стан.
2.На сітківку по черзі подають образи з навчальної вибірки, які трансформуються у вихідний сигнал y вирішального елемента.
3.При правильному відгуку нічого не змінюється.
4.При неправильному відгуку y=0 ваги всіх зв'язків від активних елементів сітківки збільшують, а при неправильному відгуку y=1 – зменшують на величину.
Якщо рішення існує, воно буде досягнуто кінцевого числа кроків при початковому виборі зв'язків.
119
процедура збіжності персептрона Розенблатта
Характеристики персептрону
Багатошаровий персептрон
121
Вихідний (результативний) шар
Сенсорний (вхідний) шар
Приховані (асоціативні) шари
мережа прямого поширення
Класифікація
Регресія (апроксимація)
Алгоритм розв'язання задач за допомогою МСП
124
Алгоритм зворотного розповсюдження помилки
125
Основа методу – цільова функція, що формулюється у вигляді квадратичної суми різниць між фактичними та очікуваними значеннями вихідних сигналів.
У разі одиничної одинарної вибірки(x,d) цільова функція визначається у вигляді:
При великій кількості навчальних вибірокj(j=1,2,..p) цільова функція перетворюється на суму за всіма вибірками:
Error backpropagation
Етапи виконання алгоритму зворотного розповсюдження помилки
.
126
До 1розраховуються значення вихідних сигналів нейронів прихованих шарів та вихідного шару, а також відповідні похідні функції активації кожного шару.
До 2.шляхом зміни напрямів передачі сигналів, заміна функцій активації їх похідними та подача на колишній вихід збудження у вигляді різниці між фактичним та очікуваним значенням.Для певної у такий спосіб мережі необхідно розрахувати значення необхідних зворотних різниць.
До 3.за формулами на основі результатів, отриманих у п. 1 і 2, для оригінальної мережі та для мережі зворотного розповсюдження помилки
До 4.Дія алгоритму завершується в момент, коли норма градієнта впаде нижче апріорі заданого значення точності навчаннятобто.
Порівняння градієнтних методів навчання
127
Алгоритм | Опис | Час, (с) | Кількість циклів | Кількість операцій, х106 |
Найшвидшого спуску | Використання лінійного наближення цільової функції | 57,1 | 980 | 2,50 |
Сполучених градієнтів | Розрахунок коефіцієнта пари на кожному кроці | 19,16 | 89 | 0,75 |
Змінної метрикиBFGS | Спрямована мінімізація цільової функції | 10,86 | 44 | 1,02 |
Левенберга-Марквардта | Заміна Р. апроксимованим значенням (параметром Л.-М.) | 1,87 | 6 | 0,46 |
RPROP | При уточненні ваг враховується лише знак градієнтної складової | 12,96 | 185 | 0,56 |
Перенавчання нейромережі
обрана випадковим чином функція дає погані передбачення на нових прикладах, які були відсутні в навчальній вибірці, хоча останню мережу відтворила без помилок.
Замість узагальнити відомі приклади, мережа запам'ятала їх
128
У
Нейросітка з нульовою
помилкою навчання
Функція-вчитель, що породжує навчальні приклади,N<∞
Проблема: недостатньо інформації, щоб вибрати правильне рішення : функцію-вчителя.
⇒
Багатошаровий персептрон
Боротьба з перенавчанням
135
Поділ даних нанавчальнеівалідаційнебезлічі прикладів
у момент мінімумупомилки валідації. При цьому зазвичайпомилка навчанняпродовжує знижуватися
скоротити різноманітність можливих конфігурацій навчених нейромереж при мінімальній втраті їх апроксимуючих здібностей
додавання проміжних нейронів з фіксованою вагою
Мережа Хопфілда
136
Вихідний сигналi-го нейрону:
деbi- граничне значення, задане зовнішнім джерелом,N– кількість нейронів.
Вирішення задач за допомогою мереж Хопфілда
137
Режим навчання мережі Хопфілда
Фаза навчання орієнтована формування таких значень терезів, за яких у режимі функціонування завдання початкового стану нейронів, близького до одного з навчальних векторівх, придотримання залежності
призводить до стабільного стану, в якому реакція нейроніву = хзалишається незмінною будь-якої миті часу.
138
Така форма передбачає одноразове пред'явлення всіхрнавчальних вибірок, внаслідок чого матриця ваги мережі приймає фіксоване значення.
Нехай при правильно підібраних вагах кожна подана на вхід вибіркахгенерує на виході саму себе, миттєво призводячи до стану:
Тоді рішення в результаті всіх перетворень набуде вигляду:
при
Режим розпізнавання мережі Хопфілда
139
Навчання
Тестування
Зразки – 10 цифр, представлених у піксельній формі розмірністю 7x7.
⇒кількість нейронів мережі Хопфілда становить 49, а кількість навчальних вибірок – 10.
Навчання з Хеббу: безпомилково розпізнанийодинобраз.
Навчання за методом проекцій: майже безпомилково розпізнанийкоженіз запам'ятаних образів.
Властивості сучасних нейромереж
140
Відмінність експертних та НС систем за характером знань
| Експертні системи (ЕС) | Нейросетельні системи (НС) |
Джерело знань | Формалізований досвід експерта, виражений у вигляді логічних тверджень - правил та фактів, що безумовно приймаються системою | Сукупний досвід експерта-вчителя, який відбирає приклади для навчання + індивідуальний досвід нейронної мережі, що навчається на цих прикладах |
Характер знань | Формально-логічне "лівопівкульне" знання у вигляді правил | Асоціативне “правопівкульне” знання у вигляді зв'язків між нейронами мережі |
Розвиток знань | У формі розширення сукупності правил та фактів (бази знань) | У формі донавчання на додатковій послідовності прикладів, з уточненням меж категорій та формуванням нових категорій |
Роль експерта | Задає на основі правил повний обсяг знань експертної системи | Відбирає характерні приклади, не формулюючи спеціально обґрунтування свого вибору |
Роль искус.сист. | Пошук ланцюжка фактів та правил для доказу судження | Формування індивідуального досвіду у формі категорій, одержуваних на основі прикладів та категоризація образів |