Головна
Аксіологія / Аналітична філософія / Антична філософія / Антологія / Антропологія / Історія філософії / Історія філософії / Логіка / Метафізика / Світова філософія / Першоджерела з філософії / Проблеми філософії / Сучасна філософія / Соціальна філософія / Середньовічна філософія / Телеологія / Теорія еволюції / Філософія (підручник) / Філософія мистецтва / Філософія історії / Філософія кіно / Філософія науки / Філософія політики / Філософія різних країн і часів / Філософія самоорганізації / Філософи / Фундаментальна філософія / Хрестоматії з філософії / Езотерика
ГоловнаФілософіяФундаментальна філософія → 
« Попередня Наступна »
Новиков Д. А.. Закономірності ітеративного навчання. М.: Інститут проблем управління РАН, 1998. - 77 с., 1998 - перейти до змісту підручника

7. Моделі - аналогії кібернетичних систем


Відмінність моделей ітеративного навчання, що розглядаються в цьому розділі, від описаних вище полягає в тому, що об'єктами дослідження є не живі системи, вивчення яких грунтується на гіпотетичних аналогіях і припущеннях про залежність між параметрами елементів і навченою системи, а кібернетичні системи - автомати, алгоритми, нейронні мережі та ін Іншими словами, при побудові математичних моделей ітеративного навчання біологічних систем вище використовувалися аналогії з фізичними явищами, ті чи інші інтуїтивні припущення і т.д. У моделях - аналогіях кібернетичних (абстрактно-логічних моделях, не реалізованих матеріально, на відміну від технічних) систем принципи функціонування останніх з одного боку переносяться (на рівні гіпотез) на модельований системи, а з іншого боку багато кібернетичні системи використовують аналогією з системами живої природи .
Проведене поділ не випадково. Наприклад, кінцеві автомати та нейронні мережі знайшли широке поширення в теорії управління, прикладної математики та інших галузях науки не тільки як моделі живих систем, але і як об'єкти, що заслуговують самостійного вивчення і використовувані при синтезі керуючих систем, розпізнаванні образів і т.д. [68? 72]. До цього ж класу моделей ми відносимо і моделі, що використовують аналогією з методами оптимізації - існує цілий ряд моделей ІН, в яких передбачається, що природа "використовує" той чи інший алгоритм для зниження, наприклад, значення неузгодженості. З іншого боку, якщо ми хочемо на підставі аналізу поведінки, наприклад, нейронної мережі при її научении [34] зробити якісь висновки про поведінку людини і тварин при итеративном научении, то необхідно зрозуміти яке відношення досліджувана кібернетична система має до мережі нейронів в мозку людини.
При цьому, однак, треба чітко розуміти, що штучні системи ведуть себе тим чи іншим чином не самі по собі, а в суворій відповідності з тими правилами і алгоритмами, які були в них закладені людиною - творцем системи.
Першим використанням методів пошуку екстремуму при аналізі та моделюванні поведінки біологічних систем є, мабуть, метод ярів [32], в якому всі змінні (параметри системи) розбиваються на два якісно різних класу - суттєві і несуттєві. Одні з них характеризуються тим, що при їх зміні значення функції, що мінімізується змінюється досить швидко (спуск по схилу "яру" - поверхні функції), а інші - досить повільною зміною функції, що мінімізується (спуск по похилому дну яру). Відповідно, для максимально швидкого досягнення мінімуму треба наскільки можливо швидко рухатися саме по дну яру (відзначимо, що тут і в ході подальшого викладу ми не будемо обговорювати локальність алгоритмів, їх збіжність і т.д. [39], обмежуючись лише якісним аналізом).
Модель 7.1.
О (Г, Ф, В). Припустимо, що алгоритм мінімізації неузгодженості використовує метод пошуку кореня (деякої функції fx) на відрізку [a; b]) діленням відрізка навпіл. Оцінка зверху неузгодженості (залежно від числа ітерацій) дається виразом xn <(b - a) / 2n, тобто xn a = exp (log2 (b - a) In 2), g = In 2.
А. Приблизно експонентну збіжність (для достатньо "хороших" функцій - див більш докладно, наприклад [39]) мають не тільки дихотомічні методи пошуку кореня, але і багато інших. -
Модель 7.2.
О (Г). Припустимо, що неузгодженість системи в момент часу n визначається як середнє арифметичне поточних значень неузгодженостей всіх N елементів.
Нехай неузгодженості всіх елементів в початковий момент часу рівні одиниці, ненегативні в будь-який момент часу, і в n-й момент часу неузгодженість 7-го елемента x7 (n) може приймати з однаковою ймовірністю будь-яке значення, меншу x7 (n - 1).
Ф (В). Тоді, якщо визначити неузгодженість всієї системи
1 N
як XN (n) = - ^ xi (n), то, якщо число елементів досить
N i = 1
велике, то неузгодженість системи Xn = Xn1 / 2 n, n = 1, 2, ..., Xo = 1.
А. Припущення про незростання неузгодженостей елементів цілком відповідає відомим принципом "не упускати досягнутого" [93, 94]. У той же час, використання середнього арифметичного як значення неузгодженості системи і припущення про равновероятности допустимих значень неузгодженостей елементів видаються не дуже обгрунтованими. Варто відзначити деяку близькість розглянутої моделі до моделей 5.1 та 8.4. -
Модель 7.3. (О.М. Аттлі [15]).
О. Технічна система, змінними характеристиками якої є ймовірності (певних дій, станів, реакцій і т.д.).
Г. Залежно від "успіху" або "неуспіху" на кроці n, на кроці n + 1 ймовірність p визначається наступним чином:
\ Рп + a (1 - Pn)
Pn +1 = \.
I Pn - P Pn
Ф (В). Припустимо, що, якщо на n-му кроці вибирається правильна дія (з ймовірністю pn), то ймовірність "успіху" дорівнює p (відповідно, "неуспіху" - (1 - p)). Якщо вибирається неправильна дія (з ймовірністю (1 - pn)), то ймовірність "успіху" дорівнює q. Тоді очікування "успіху" на (n + 1)-му кроці одно: Vn +1 = Vn (pn +1 p + (1 - pn +1) q).
Підставляючи закон зміни ймовірності, отримаємо, що Vn експоненціально змінюється з часом (див. модель 4.2.).
А. Експоненціальне вигляд кривої, що відбиває зміну очікуваного "успіху" обумовлений лінійним зміною ймовірності. У 50-60-х роках, в період бурхливого розвитку кібернетики, було побудовано значну кількість найрізноманітніших навчаються машин: машини умовної ймовірності [15], які навчаються матриці [91], "миша" К. Шеннона (лабіринтова модель), "черепаха"
Г. ЗЕМАНЕК, "машина-спекулятрікс" (аналог безумовного рефлексу) і "CORA" (аналог умовного рефлексу) Г. Уолтера [80] та ін У більшості з них використовувалися лінійні закони зміни змінних (на відміну, наприклад, від нелінійних законів, що використовуються в гомеостаті У.Р. Ешбі [93]). Більш того, при дослі-довании загальних закономірностей процесів адаптації і навчання в автоматичних системах, багато законів навчання (наприклад, лінійні алгоритми оптимального навчання) вибиралися також лінійними [86, 87]. -
Великий клас навчаються автоматів складають так звані кінцеві імовірнісні автомати із змінною структурою. Під кінцевим автоматом розуміється об'єкт, що має деякі внутрішні стану, на вхід якого можуть надходити зовнішні впливи і вихідний параметр якого може приймати одне з кінцевого числа значень [24-26]. Внутрішні стану автомата змінюються зі зміною вхідних параметрів, а вихідні - з зміною внутрішніх станів. Для нашого аналізу важлива здатність автомата "самостійно" змінювати свою структуру - перетворення "вхід" - "внутрішній стан", "вхід, внутрішній стан" - "вихід" (природно, автомат міняє ці закони не за своїм розсудом, а відповідно до закладеного в нього алгоритмом), функціонуючи в нестаціонарному середовищі. Ця здатність дозволяє говорити про адаптивність поведінки, ефектах колективної поведінки (гри автоматів, ієрархічні навчають автомати [48, 49]) і наявності деякого роду навчання (що розуміється в даному випадку як накопичення і переробка інформації про зовнішнє середовище і вироблення доцільних законів поведінки в даних конкретних умовах [85]).
Модель 7.4. (В. І. Варшавський, В.Ю. Крилов та ін [24, 49]).
О. Імовірнісний автомат в момент часу t здійснює 7-е дію (вибирає 7-е вихідна стан) з імовірністю p7 (t),
7 = 1, до, де к - кінцеве число вихідних станів. Мета автомата - максимізувати виграш, що залежить від його дій і стану навколишнього середовища. "Змінність" його структури означає можливість зміни ймовірностей. Зрозуміло, що якщо в даних умовах (при даному стані навколишнього середовища)
51
було вибрано "правильне" дію, що призвело до позитивного виграшу, то ймовірність вибору цієї дії слід збільшити, а ймовірності вибору інших дій, відповідно, зменшити, так як має виконуватися умова нормування (СР з "лабіринтовою" моделлю 4.2).
Г. Припустимо, що ймовірності вибору дій i і j змінюються за законом A ± pi (t), такому, що виконано: p, (t + 1) = p, (t) ± Apt), p} (t + 1) = p () ± A ± p] (t), j * i,
причому
A ± pi (t) + 2 A ± p (t) = 0.
J * i
Ф (В, А). Якщо закон зміни A ± pi (t) линеен по pi (t), отримуємо експонентну послідовність. У загальному випадку, звичайно, чисто експоненційної кривої спостерігатися не буде, однак, у більшості випадків при імітаційному моделюванні спостерігалися приблизно експонентні уповільнено-асимптотичні криві залежності, наприклад, середнього виграшу від числа зіграних партій [24, 25]. -
Іншим великим класом кібернетичних систем, що претендують на моделювання явищ і процесів, що відбуваються в біологічних системах, є так звані нейронні мережі.
Алгоритми навчання нейронних мереж умовно можна розділити на детерміновані алгоритми і алгоритми випадкового пошуку. Фактично навчання нейронної мережі - не що інше як завдання мінімізації багатоекстремального функції багатьох змінних [103]. Число відомих на сьогоднішній день різних методів навчання (алгоритмів мінімізації) і різноманітних конструкції мереж (їх архітектур) становить, як мінімум, кілька десятків. Ми розглянемо деякі загальні підходи до навчання нейронних мереж, не вдаючись у деталі.
Модель 7.5.
О. Нейронна мережа являє собою кілька шарів нейронів, що мають логістичні чи якісь інші сигмо-образні передавальні функції [103, 108]. Виходи нейронів 52
кожного шару подаються на входи нейронів інших шарів з певними вагами. Вага "зв'язки" (i, j) - число, на яке перед підсумовуванням на вході j-го нейрона множиться вихідний сигнал i-го нейрона. Навчання нейронної мережі полягає в підборі (послідовному зміні) ваг нейронів, відповідних розв'язуваної задачі (розпізнавання сигналу, мінімізація функції і т.д.). Навчання відбувається наступним чином: нейронної мережі подаються на вхід певні сигнали, вихідні сигнали мережі порівнюються з нормативними значеннями і на підставі цього порівняння коригуються ваги.
Г (Ф). Досить поширеними алгоритмами зміни ваг є алгоритм зворотного ходу (BP - backpropagation neural network) - спочатку змінюються ваги нейронів останнього (вихідного) шару, потім передостаннього і т.д. [112], і так званих випадковий мультістарт (точніше, його модифікації - вибирається початкова точка, наступна точка визначається шляхом додавання до початкової, наприклад, гауссовского випадкового вектора і "інерційної добавки", порівнюються значення функції помилки в цих точках і т. д. [97]).
В (А). Справедливості заради, слід констатувати, що в загальному випадку, ваги окремих нейронів і їх помилки не завжди змінюються уповільнено-асимптотическим чином. Однак загальна помилка, яка найчастіше обчислюється як середня помилка нейронів, в більшості випадків змінюється приблизно експоненціально (зокрема - при використанні методу градієнтного спуску [97]). Зрозуміло, що динаміка помилки залежить як від використовуваного методу навчання, так і від специфіки функції, що мінімізується [97]. Наприклад, в роботі [107] для апроксимації часу навчання BP-мережі пропонується поліноміальна функція. Швидкість збіжності до точки мінімуму функції помилки (швидкість навчення нейронної мережі) залежить від алгоритму зміни ваг нейронів, який, у свою чергу, закладається конструктором. -
Таким чином, при научении кібернетичних систем експонентний характер відповідних КН обумовлений лінійним законом зміни внутрішніх параметрів системи і / або великим числом складових її елементів.
« Попередня Наступна »
= Перейти до змісту підручника =
Інформація, релевантна " 7. Моделі - аналогії кібернетичних систем "
  1. 1. Моделювання ітеративного навчання: завдання і проблеми
    моделей ітеративного навчання, тому насамперед необхідно визначити, що розуміється під "моделлю" і "ітеративним научением". Термін "модель" ми будемо використовувати в найширшому його розумінні як "аналог певного фрагмента природної чи соціальної реальності, ... заступник оригіналу в пізнанні і практиці", математична (абстрактна) модель - "інтерпретація систем
  2. Нормовані криві ітеративного навчання.
      модель 5.2 нижче) призводить до експоненційної залежності: x (t) = a + b e'gt, де a, Ь - деякі константи. За аналогією з мономолекулярної автокаталитической реакцією або з використанням аналогій з хімічним законом діючих мас [99]: x (t) = ae gt / (b + e gt). Thurstone L. на підставі узагальнення експериментального матеріалу Lashley K. (Навчання щурів знаходженню шляху в лабіринті) запропонував
  3. 3. Класифікація моделей ітеративного навчання людини, тварин і штучних систем
      моделей ітеративного навчання будується на основі аналогій з явищами і процесами, що відбуваються в тих чи інших системах живої або неживої природи. Тому в основу класифікації природно покласти тип процесу або явища, аналогія з яким використовується. На малюнку 3.1 приведена пропонована система класифікацій моделей ітеративного навчання. Рис. 3.1. Класифікація моделей ІН В
  4. 21. Романо-германська, англосаксонська, мусульманська правова сім'я
      моделлю, а з іншим аналогічним казусом. Відсутній розподіл права на приватне і публічне. Як правило, немає і галузевого розподілу норм. У англосаксонському праві формальний пріоритет належить законодавству, але фактично все залежить від розсуду судді, від того, як він витлумачить і застосує норму закону. Саме на судове рішення, а не на норму закону будуть орієнтовані всі учасники
  5. § 4. Тактика Огляду місця події
      моделювання події, что Відбулася. Розглянемо функціональне призначення и доцільність назв прійомів. Слідчий має ПЄВНЄВ інформацію про характер події ще до качана Огляду місця події з Повідомлень про злочин, оперативних Даних, показань окрем ОСІБ ТОЩО. У Дуже рідкіх випадка Слідчий, Який віїздіть на місце події, чи не має хочай б Деяк уявлення про подію злочином. Це уявлення может буті
  6. § 1. Поняття злочину
      моделювання. М., 1987. С. 45. 'Спасович В. Д. Підручник кримінального права. Частина Загальна. СПб., 1863. С. 84. 'Кузнєцова Н. Ф. Значення злочинних наслідків для кримінальної відповідальності. М "1958. С. 49. * Карпушин М. П" Курлянский В. І. Кримінальна відповідальність і склад злочину. М "1974. С. 89. Малолітнього і т.д., а між тим злочинне порушення норм передбачає готівку провини, то ... його
  7. 3. Винахідницький рівень
      моделі, а також запатентовані в Росії винаходи і корисні моделі, якщо відомості про них не опубліковані, в рівень техніки при дослідженні даного критерію не включаються. Винахідницький рівень, як і новизна, встановлюється на дату пріоритету. Заявнику точно так само надається 6-місячний пільговий термін, протягом якого, незважаючи на оприлюднення відомостей про істоту
  8. Б. Промислові зразки
      моделей. Однак у багатьох інших країнах справа йде інакше. У деяких з них охорона промислових зразків вводиться автоматично без пред'явлення до них вимог щодо їх реєстрації або експертизі, і спосіб охорони скоріше схожий на охорону авторських прав, ніж на патентну охорону. Критерій новизни так само варіюється від країни до країни. В одних країнах потрібно, щоб даний промисловий
  9. § 3. Англо-американська система
      модельні) кодифікації. Однак, незважаючи на те, що право США має значну специфіку, воно утворює разом з англійським правом єдину правову систему. Джерела права. Загальний перелік джерел в англо-американській системі той же-закони, судова практика, звичаї, але їх співвідношення змінюється. Закони в англо-американському праві не відіграють тієї ролі, яка їм властива в праві континентальному,
  10. 2.1. БАГАТОФУНКЦІОНАЛЬШСТЬ - ОСНОВА ПРАВОВОГО СТАТУСУ ПРОКУРАТУРИ УКРАЇНИ
      моделі: наглядово, обвінувального або змішаного, у якому поєднуються наглядові Функції и кримінальне переслідування [14, 28-29]. Як відзначів російський дореволюційній Дослідник П. Люблінській, прокуратура - це "установа, закликали Здійснювати публічну функцію обвинуваченого и нагляд за правильним! Застосування Законів у судових и адміністратівніх установах [15, 537]. Щоправда, ЯКЩО до
© 2014-2022  ibib.ltd.ua