Можливості та перспективи створення штучного інтелекту
У статті досліджено історичні, філософські, технологічні аспекти створення систем штучного інтелекту, розкрито різні підходи до їх конструювання. Показано місце експертних систем і нейромережевих технологій у цьому процесі. Досліджено адекватність тестів штучних систем на інтелектуальність, подано а...
Gespeichert in:
| Veröffentlicht in: | Вісник НАН України |
|---|---|
| Datum: | 2011 |
| 1. Verfasser: | |
| Format: | Artikel |
| Sprache: | Ukrainisch |
| Veröffentlicht: |
Видавничий дім "Академперіодика" НАН України
2011
|
| Schlagworte: | |
| Online Zugang: | https://nasplib.isofts.kiev.ua/handle/123456789/31503 |
| Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
| Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| Zitieren: | Можливості та перспективи створення штучного інтелекту / А. Матвійчук // Вісн. НАН України. — 2011. — № 12. — С. 36-51. — Бібліогр.: 38 назв. — укр. |
Institution
Digital Library of Periodicals of National Academy of Sciences of Ukraine| _version_ | 1859474697727508480 |
|---|---|
| author | Матвійчук, А. |
| author_facet | Матвійчук, А. |
| citation_txt | Можливості та перспективи створення штучного інтелекту / А. Матвійчук // Вісн. НАН України. — 2011. — № 12. — С. 36-51. — Бібліогр.: 38 назв. — укр. |
| collection | DSpace DC |
| container_title | Вісник НАН України |
| description | У статті досліджено історичні, філософські, технологічні аспекти створення систем штучного інтелекту, розкрито різні підходи до їх конструювання. Показано місце експертних систем і нейромережевих технологій у цьому процесі. Досліджено адекватність тестів штучних систем на інтелектуальність, подано авторські міркування щодо можливості створення штучного інтелекту і ролі нейромедіаторів у процесі мислення. Запропоновано підхід до конструювання систем штучного інтелекту.
The paper covers historical, philosophical, technology aspects of artificial intelligence systems creating. Different approaches to such systems constructing are clarified. The place of expert systems and neural networks in this process is shown. The artificial system tests for intellectuality are examined as to their adequacy. The author gives his own ideas about the possibility of artificial intelligence creating and the role of neurotransmitters in the process of thinking. He also presents approach to artificial intelligence systems construction.
|
| first_indexed | 2025-11-24T11:37:09Z |
| format | Article |
| fulltext |
36 ISSN 0372-6436. Вісн. НАН України, 2011, № 12
А. Матвійчук
МОЖЛИВОСТІ ТА ПЕРСПЕКТИВИ
СТВОРЕННЯ ШТУЧНОГО ІНТЕЛЕКТУ
Досягнення в теорії обчислень, формальній логіці, поява комп’ютерної техніки
в середині XX ст. стимулювали дослідження можливості математичного від-
творення розумової діяльності, створення штучного інтелекту. З огляду на
традицію західної філософської думки, яка розвивалась під впливом платонів-
ського вчення, роботи були орієнтовані переважно на відтворення розумової
діяльності шляхом маніпулювання символьними виразами згідно з правилами,
що враховують їхню структуру. У пропонованій статті розглянуто переду-
мови зародження наукового напряму з проблеми штучного інтелекту, сучасні
можливості створення штучно-інтелектуальних технологій і ймовірні на-
слідки появи в майбутньому мозкоподібних систем.
© МАТВІЙЧУК Андрій Вікторович. Доктор економічних наук. Директор Інституту моделювання та
інформаційних технологій в економіці Київського національного економічного університету імені Вадима
Гетьмана. 2011.
І деї Платона й інших афінських мислите-
лів чітко визначили розвиток філософії,
логіки, власне, стали дороговказом для біль-
шості наукових напрямів. І сьогодні надзви-
чайно важко відійти від тисячолітніх узви-
чаєнь і спрямувати науковий пошук у рус-
ло, яке суперечило б давньогрецькому світо-
гляду. Зокрема, Платон зазначав: усяке
знання слід подавати у вигляді точних ви-
значень, якими зможе користуватись будь-
хто. Якщо ж цього не відбувається, тобто
знання про те, як щось робиться, не можна
перетворити у знання про те, що робити, —
то це не знання, а віра, упевненість [1].
Отже, за Платоном, роботу художників, по-
етів і, врешті, науковців, які творять щось
принципово нове залежно від нат хнення,
годі описати точними правилами. Діяль-
ність, де потрібні майстерність, інтуїція чи
відчуття традиції, Платон називає «беззміс-
товною одержимістю».
Погляди Платона передбачають цілкови-
ту відмову від інтуїції та оцінок, що мають
характер міркувань. Для цього треба звести
всі семантичні зв’язки (смислові значення
об’єктів і співвідношення між ними) до
формальних синтаксичних конструкцій. Пе-
реконання щодо можливості такої тоталь-
ної формалізації пізнання багато століть
домінує у західній думці.
Уперше синтаксичну концепцію мислен-
ня як процесу обчислення сформулював у
1651 р. англійський філософ і літератор То-
мас Гоббс: «Коли людина міркує, вона лише
створює в умі підсумкову суму шляхом
складання частин … адже міркування … це
не що інше, як розрахунок» [2; 75, 76]. Ні-
мецький філософ і математик XVII ст., ви-
нахідник двійкової системи обчислення
(покладеної в основу цифрових ком п’ю-
терів) Готфрід Лейбніц працював над ство-
ренням універсальної мови міркування, що
зведе звичайну аргументацію до обчислень.
Її базисом будуть універсальні характерис-
тики — характеристичні числа і правила їх
комбінування, за допомогою яких можна
описати будь-яку ситуацію чи розв’язати
будь-яку проблему: «І якщо хто-небудь
ISSN 0372-6436. Вісн. НАН України, 2011, № 12 37
мав би сумніви у тому, що я стверджую, я б
відповів йому: «Давайте розрахуємо, пано-
ве!» — і ми, взявши перо і чорнила, швидко
б вийшли із ускладнення» [3].
Переконання Гоббса і Лейбніца сформу-
валися під впливом платонівської концеп-
ції. Ці вчені створили синтаксичну теорію
мислення, висунули гіпотезу про можли-
вість формалізації міркувань із застосуван-
ням універсальних символів і операцій над
ними, що стало провідною ідеєю у визна-
ченні в 50-х рр. XX ст. програми дослі-
джень зі створення штучного інтелекту.
ПЕРШІ КРОКИ ШТУЧНОГО ІНТЕЛЕКТУ
Ш тучний інтелект як науковий напрям
зародився разом з цифровими ком-
п’ютерами. У 1950 р. англійський матема-
тик Алан Тьюринг оприлюднив статтю «Об-
числювальні машини та інтелект», де зазна-
чив, що «наш інтерес до «мислячих машин»
виник завдяки машині особливого роду, яку
зазвичай називають «електронним або циф-
ровим комп’ютером» [4; 436]. У цьому ж
матеріалі він описав базову структуру циф-
рового комп’ютера, взаємодію основних
його складників, запропонувавши покласти
в основу розрахунків двійкову систему об-
числення. Тьюринг показав, що обчислю-
вальні машини розв’язують розрахункові
задачі будь-якої складності, а оскільки всі
цифрові комп’ютери логічно ідентичні (не
треба створювати нову машину під кожну
нову задачу — їх усі роз в’я зуватиме лиш
один комп’ютер, якщо наділити його відпо-
відною програмою), він назвав їх універ-
сальними машинами. Згодом виникла назва
«універсальні машини Тьюринга». Крім
того, він запитав: «Чи можуть такі машини
мислити?» [4; 434]. Для відповіді вчений
запропонував біхевіористичне тестування
комп’ютерних систем на інтелектуальність,
яке також назвали на його честь.
Стандартна інтерпретація тесту Тьюринга
така: суддя взаємодіє з одним ком п’ю те ром
і однією людиною. На підставі відповідей
він визначає, з ким розмовляє: з людиною
чи комп’ютерною програмою. Завдання
програми — ввести суддю в оману. Учасни-
ки не бачать один одного. Якщо суддя не
може визначитися — машина пройшла тест.
Щоб протестувати саме інтелект машини,
а не вміння розпізнавати усне мовлення,
спілкування ведеться за допомогою клавіа-
тури комп’ютера-посередника. Відповіді да-
ються через певні проміжки часу, щоб суд-
дя не робив висновку, виходячи з їхньої
швидкості. За часів Тьюринга комп’ютери
надавали відповіді повільніше за людину, а
тепер навпаки.
Тест Тьюринга сформульовано у рамках
панівної синтаксичної концепції мислен-
ня, яка походить ще від Платона і Гоббса.
Він унаочнює Тьюрингове розуміння сут-
ності інтелекту і мислення, передбачає, що
стандартний цифровий комп’ютер, яким
управляють рекурсивно застосовні прави-
ла, чутливі до порядку розташування еле-
ментарних символів (які відіграють роль
вхідних даних), здатен визначити будь-яку
систематичну сукупність відповідей на до-
вільні запитання ззовні. Вказівка Тьюринга
на взаємодію з машиною через клавіатуру
комп’ютера-посередника є несуттєвим об-
меженням. Висновок правомірний, навіть
якщо комп’ютер взаємодіятиме зі світом
складнішими способами: через розпізна-
вання зображень, мовлення тощо. Зреш-
тою, ця взаємодія являє собою таку саму
рекурсивну функцію Тьюринга, тільки
складнішої конструкції. Залишається ви-
значити складну функцію, що керує реак-
ціями людини на зовнішні впливи, а потім
написати комп’ютерну програму (множину
рекурсивно застосовних правил) для її об-
числення. Завдання, що їх окреслив Тью-
ринг, покладено в основу наукової програ-
ми класичного штучного інтелекту.
Перші результати були вражаючі для
свого часу. Комп’ютери виконали дії, які
38 ISSN 0372-6436. Вісн. НАН України, 2011, № 12
можна було сприйняти за прояв розуму.
Вони реагували на команди, розв’язували
складні арифметичні задачі, грали в шашки
й шахи, підтримували простий діалог, на-
віть доводили теореми. Результати поліп-
шувалися з розвитком комп’ютерної техні-
ки й ускладненням програм.
Схожі дослідження проводили в СРСР.
Зокрема, Інститут кібернетики АН УРСР
під керівництвом академіка В.М. Глушко-
ва автоматизував доведення математичних
теорем, створив систему перекладу з росій-
ської на українську, алгоритм аналізу зміс-
ту фраз, нову формальну систему — алгеб-
ру алгоритмів, завдяки чому було фор-
малізовано практичні завдання розробки
комп’ютерних систем, побудовано матема-
тичну теорію їх проектування тощо [5].
ШТУЧНИЙ ІНТЕЛЕКТ
І ЗНАННЯ, НАБУТІ ЦИВІЛІЗАЦІЄЮ
П роривом у створенні інтелектуальних
систем за класичною синтаксичною
концепцією був універсальний розв’язувач
задач (General Problem Solver) Аллена Нью-
елла, Кліффа Шоу, Герберта Саймона [6],
базований на евристичному пошуку. Ідея
програми виникла під час спостереження
за студентами під час розв’язання логічних
задач. А. Ньюелл і Г. Саймон зауважили,
що ті часто застосовували «прямолінійні»
прийоми, наприклад, замінювали довгий
вираз коротшим.
Ньюелл, Шоу, Саймон відтворювали ро-
зумову діяльність у контексті сталих тради-
цій, орієнтуючись на маніпулювання набо-
ром символів, перетворюваних відповідно
до чітко встановлених правил. Як і фрази
звичайної мови, вирази класичних систем
штучного інтелекту, до яких належить уні-
версальний розв’язувач задач, складні, утво-
рені шляхом систематизації простих симво-
лів. Через обмежену кількість символів нові
смислові вирази компонуються з наявних і
балансують між синтаксичною структурою
і семантикою. Символи групуються у відо-
мі терміни, що робить символьне подання
відносно простим і зрозумілим. Тобто від-
критість і зрозумілість символьних систем
штучного інтелекту робить їх придатними
для людино-машинного спілкування.
У 1976 р. Аллен Ньюелл і Герберт Сай-
мон сформулювали гіпотезу про фізичну
символьну систему (гіпотеза Ньюелла–
Саймона): необхідні і достатні засоби для
реалізації базових інтелектуальних дій у
широкому сенсі має фізична символьна
система [7–9]. Тобто без символьних об-
числень неможливо виконати осмислені
дії. Здатності проводити символьні розра-
хунки цілком достатньо, щоб реалізувати
інтелектуальні дії. А оскільки комп’ютер
має таку здатність, на його основі можна
створити штучний інтелект.
Перші результати універсального роз в’я-
зувача задач вселяли певність, що нарешті
мрія філософів знайшла для свого втілен-
ня технічні засоби і програмну реалізацію
набору правил, спроможних перевести мір-
кування в розрахунок. А. Ньюелл і Г. Сай-
мон навіть поспішили проголосити, що «ін-
туїцію, інсайт і навчання не можна біль-
ше вважати винятково прерогативою лю-
дини: ними володіє будь-який потужний
комп’ютер, запрограмований відповідним
чином» [10; 6]. Г. Саймон у 1965 р. про-
гнозував, що протягом найближчих 20 ро-
ків машини виконуватимуть усі дії, на які
здатна людина [11; 96].
Едвард Фейгенбаум писав: «В евристич-
них програмах розв’язання проблем перед-
бачено, що пошук рішення у просторі зада-
чі спрямовують і контролюють евристичні
правила. Представлення, що окреслює про-
стір задачі, визначається ставленням до-
слідника до цієї проблеми та його точкою
зору, і воно ж зумовлює вид рішення. Об-
равши для задачі вдалий спосіб представ-
лення, можна істотно підвищити ефек-
тивність процесів пошуку рішення. Вибір
ISSN 0372-6436. Вісн. НАН України, 2011, № 12 39
способу представлення задачі — справа до-
слідника, що розробляє програму. Це —
творчий акт» [12]. Його називають знахо-
дженням глибинної структури задачі або
інсайтом. Без втручання людини на етапі
«творчих актів» — постановки задачі, напи-
сання алгоритму, встановлення цілей — по-
дібні системи обійтись не можуть.
У такі програми треба закласти множи-
ну альтернатив. На основі фіксованих пра-
вил обробки визначеного переліку фактів
програма вибирає найадекватнішу. Систе-
ми штучного інтелекту, ґрунтовані на кла-
сичній синтаксичній концепції, здійсню-
ють розрахунки з огляду на встановлені
цілі й обмеження, проте не реалізують інте-
лект у широкому сенсі (творче мислення),
а завдання виконують у межах обраної аль-
тернативи.
Один з найавторитетніших дослідників
штучного інтелекту Марвін Мінський у
1968 р. писав: «Я не бачу підґрунтя для
припущення, що інтелект може існувати
поза високоорганізованим масивом знань,
без зв’язку з моделями і процесами. Для
нашої цивілізації завжди було природним
вважати, що інтелект кристалізований у
деякому ізольованому утворенні — нази-
вайте його свідомістю, розумом, інсайтом,
гештальтом або як вам завгодно; але при
цьому вирішення проблеми підмінюється
її назвою. Здатність розв’язувати задачі,
властива людині з високим рівнем інте-
лекту, пояснюється частково більшою до-
сконалістю її евристик, використовуваних
для організації структури її знань, а част-
ково самою структурою; вірогідно, ці два
моменти певною мірою неподільні. Немає
жодних підстав вважати, що можливі які-
небудь інші шляхи до того, що називаєть-
ся інтелектом, крім використання адекват-
них, цілком конкретних знань чи модель-
них структур» [13; 27].
За Мінським, зовнішній світ — це маса
ізольованих фактів, які розум інтерпретує
в термінах інших ізольованих фактів, збе-
режених у пам’яті й організованих за допо-
могою своєрідного каталогу чи бази пра-
вил. Тож розум сприймає окремі деталі на-
вколишнього світу як миттєві знімки ситу-
ацій, а потім збирає їх у термінах моделі,
створеної на основі раніше накопичених
фактів. Мінський зазначав, що будь-яка
впорядкованість і регулярність у людській
поведінці спостерігається за умов підпо-
рядкування детермінованим правилам. В
іншому випадку вона абсолютно довільна
і непередбачувана. Він навіть не припускав
існування регулярної поведінки, яку не ви-
значають правила.
КРИТИКА ШТУЧНОГО РОЗУМУ
У 1972 р. позиції Мінського та ін. побор-
ників класичної синтаксичної концеп-
ції штучного інтелекту жорстко розкрити-
кував Х’юберт Дрейфус у своїй книзі «Чого
не можуть обчислювальні машини: крити-
ка штучного розуму» [14, 15]. На його дум-
ку, регулярна поведінка, яку не визначають
правила, не тільки можлива, але й неми-
нуча, бо конструювання правил для всіх
потенційних ситуацій неможливе: «Наша
спрямована контекстом діяльність, у термі-
нах якої ми постійно заново оцінюємо реле-
вантність і значення конкретних об’єктів і
фактів, цілком регулярна, проте ця регуляр-
ність не повинна і не може повністю підпо-
рядковуватися правилам» [15; 240].
Х. Дрейфус зауважує, якщо «розвинути
гіпотезу, за якою будь-яку поведінку необ-
хідно обов’язково розуміти як таку, що ви-
никає в результаті застосування деякого на-
бору правил, то ми зіштовхуємося з нескін-
ченним процесом звернень до правил, пра-
вил застосування правил і т.д. — з регресом
у нескінченність. Цей процес не може завер-
шитися зверненням до звичайних фактів,
оскільки, як випливає з вихідного тверджен-
ня, самі факти завжди впізнаються й інтер-
претуються через деякі правила» [15; 258].
40 ISSN 0372-6436. Вісн. НАН України, 2011, № 12
Він різко критикує системи штучно-
го інтелекту з формальним описом ситуа-
ції у вигляді правил, аргументовано пока-
зує їхню принципову неспроможність до
розумової діяльності. Доводи Х. Дрейфу-
са цікаві: «Значення, яке має бути приписа-
но кожному логічному елементу, залежить
від інших логічних елементів, і для того,
щоб можна було сказати, що ті чи інші
вхідні сигнали формують спочатку обра-
зи, а врешті-решт — об’єкти й усвідомлені
висловлювання, кожен з цих сигналів має
бути співвіднесений за деякими правилами
з іншими сигналами. Проте відповідно до
різних правил елементи можуть мати різ-
ну інтерпретацію, вибір же правила визна-
чається контекстом. Однак обчислювальна
машина може розпізнавати контексти лише
за допомогою певних правил.
Цей спосіб аналізу, який нав’язує обчис-
лювальна машина, суперечить нашому до-
свіду. Феноменологічний опис нашого до-
свіду наводить на думку, що ми завжди пе-
ребуваємо в деякій ситуації або контексті,
що його переносимо з найближчого мину-
лого і підлаштовуємо під сучасність у тер-
мінах тих подій, які у світлі попередньої
ситуації здаються нам значимими. Кожен
раз ми зіштовхуємося не з беззмістовними
елементами, у термінах яких маємо іденти-
фікувати контексти, а тільки з фактами, що
вже мають інтерпретацію і своєю чергою
визначають ситуацію, у якій ми перебуває-
мо. Життєвий досвід людини можна зрозу-
міти лише в тому випадку, коли він органі-
зований у термінах ситуацій, у яких уже за-
дано релевантності і значення» [15; 261].
Факти реального світу, на думку Дрейфу-
са, не мають придатного для всіх контек-
стів однозначного тлумачення, яке б могли
задати розробники систем штучного інте-
лекту, — інтерпретація залежить від обста-
вин. Можливість встановлення релевант-
ності і значень елементів учений бачив
лише в ієрархії контекстів, хоч і критикував
Мінського за спроби створити машину, яка
не мислить, а моделює мислення 1. Розумі-
ючи обмеженість такого підходу, його від-
мінність від пізнання і прийняття рішень
людиною, Дрейфус робить висновок про
неможливість реалізації штучного інтелек-
ту шляхом маніпулювання символами за
допомогою рекурсивно застосовних правил.
Однак він не відкидав можливості створен-
ня штучного інтелекту взагалі.
Загалом роботу Дрейфуса зустріли воро-
же й оцінили як недалекоглядну і не об’ єк-
тивну. А недосконалість систем штучного
інтелекту пояснювали недостатньою по-
тужністю комп’ютерів. Однак наприкінці
70-х рр. ХХ ст. швидкість поширення сиг-
налів у них стала приблизно в мільйон ра-
зів вищою, ніж у мозку людини, а тактова
частота центрального процесорного при-
строю майже на стільки ж переросла часто-
ту будь-яких коливань, виявлених у мозку.
При цьому комп’ютерні системи практично
не наблизились до біологічних у вирішенні
таких когнітивних задач, як розпізнавання
образів, переклад текстів тощо.
Погляди Дрейфуса поділяв професор
Каліфорнійського університету в Берклі
Джон Сірл, який займався філософськими
аспектами створення штучного інтелекту.
Він ставив під сумнів, що коректне мані-
пулювання структурованими символами
шляхом рекурсивного застосування правил,
1 Тези М. Мінського «На запитання про ті чи інші
об’єкти досліджуваного світу можна відповісти де-
яким твердженням щодо поведінки відповідних
структур у тій моделі світу, яка є в того, до кого по-
ставлено запитання» [15; 426], «Коли людині став-
лять запитання загального характеру щодо неї самої,
вона намагається дати загальний опис наявної в неї
моделі своєї натури» [15; 428] Дрейфус нищівно
розкритикував: «М. Мінський … не усвідомлює, що
«регрес у нескінченність» виникає через те, що він
наголошує на введенні моделей, і що це ускладнення
унаочнює філософську непослідовність його позиції,
згідно з якою ми ніколи нічого не знаємо напряму, а
лише через призму моделей» [17; 236].
ISSN 0372-6436. Вісн. НАН України, 2011, № 12 41
котрі враховують їхню структуру, може ста-
новити сутність свідомого розуму. В 1980 р.
Сірл продемонстрував можливість прохо-
дження тесту Тьюринга побудованою за
принципами фізичних символьних систем
штучною системою, яка не володіє інтелек-
туальними властивостями і не розуміє суті
запитань. У статті [16] наведено уявний
експеримент з «китайською кімнатою» —
уособленням штучної системи, що прохо-
дить тест на інтелектуальність. У кімнаті
людина коректно відповідає на запитання
незнайомою їй китайською мовою, спираю-
чись на підказки, що містяться тут же (ал-
горитм поведінки). При цьому людина зо-
всім не розуміє, що саме говорить. За Сір-
лем, така поведінка, як і кімната в цілому,
не інтелектуальна 2.
Цей експеримент ілюструє здатність ма-
шини імітувати людську поведінку в роз-
мові, механічно (неінтелектуально) дотри-
муючись заздалегідь установлених правил.
Такі алгоритми не усвідомлюють сутнос-
ті речей, не узагальнюють досвід, аби за-
стосувати його в майбутньому. Відповід-
но, Сірл доходить висновку, що мислення
не еквівалентне формальним символьним
розрахункам. Крім того, друга і третя аксі-
оми Сірла «людський розум оперує смис-
ловим змістом (семантикою)» і «синтаксис
сам по собі не утворює семантику, його не-
достатньо для існування семантики» [17;
27] свідчать: маніпулювання символами
2 Тест Тьюринга має також безліч інших зауважень. По-
перше, він перевіряє тільки аналіз синтаксичних кон-
струкцій, а не самі високоінтелектуальні дії, наприклад,
виконання складних завдань чи висування оригіналь-
них ідей. По-друге, не визначає інтелектуальними такі
когнітивні завдання, як розпізнавання образів тощо.
Тест провокує обман: навіть найдоско наліша програма
повинна прикидатись не надто розумною, щоб про-
йти перевірку (для цього деякі розробники навчали
комп’ютерні системи робити граматичні помилки).
Якщо ж машина здатна розв’язати якусь розрахункову
задачу, непосильну для людини, вона за визначенням
провалить тест.
недостатньо для наявності сенсу. Тож моде-
лювання мислення ще не є самим мислен-
ням. І програмна реалізація комп’ютерних
алгоритмів, навіть здатних здійснити син-
таксичний, семантичний, морфологічний,
графематичний, ін. аналізи лінгвістичних
конструкцій і дати обґрунтовані відповіді з
бази варіантів, не наділяє систему інтелек-
том, тобто справжнім розумінням суті за-
питань і відповідей.
Сірл вказує, що системи його часів здат-
ні відтворити синтаксис, але не реалізують
семантику, а це і є головна ознака мислен-
ня (інтелекту). Однак він не відкидає мож-
ливості створення таких систем у майбут-
ньому.
Розуміння штучного інтелекту за Тью-
рингом Дж. Сірл назвав слабким штучним
інтелектом. Натомість «сильний» — це той,
який зреалізує програма, що буде не просто
«моделлю розуму, вона сама буде розумом
у буквальному сенсі слова, у тому самому
сенсі, у якому людський розум — це розум»
[17; 26].
Публікація Сірла спровокувала поміж
психологами, філософами, дослідниками
штучного інтелекту широку дискусію щодо
коректності висновків. Лунали навіть дум-
ки, що хоч кімната з її вмістом працює над-
то повільно, ця система все-таки розуміє
китайську мову. Серед критиків варто зга-
дати Пола і Патрицію Черчлендів, які, крім
зауважень, запропонували створити систе-
му штучного інтелекту на базі нейронних
мереж [18]. У полеміці з ними Дж. Сірл,
критикуючи нейронні мережі (як і інші ко-
некціоністські системи) як інструментарій
для реалізації штучного інтелекту, наво-
дить новий приклад з китайською мовою,
коли в гімнастичному залі багато осіб да-
ють відповіді, базуючись на тих самих пра-
вилах, що й людина у «китайській кімнаті».
І показує відсутність у такої системи інте-
лектуальних властивостей. Дж. Сірл за-
значає, що для проведення розрахунків
42 ISSN 0372-6436. Вісн. НАН України, 2011, № 12
послідовні і паралельні архітектури абсо-
лютно ідентичні: будь-яке обчислення, ви-
конане машиною з паралельним режимом
роботи, зреалізує машина з послідовною
архітектурою [17; 28].
На це також вказував дослідник штучно-
го інтелекту Дж. Фодор: «будь-яка опера-
ція, яку виконує нервова система, ідентич-
на деякій послідовності елементарних опе-
рацій» [19; 629]. А якщо «істинна точка
зору, згідно з якою причиною сприйняття
глибини виступає текстурний градієнт,
якщо центральна нервова система відпові-
дає уявленню, яке склалося про неї в най-
проникливіших дослідників, то деякі з дій,
які виконує нервова система, і деякі фізичні
процеси, що відбуваються в ній, коли ми
усвідомлюємо глибину, можна описати та-
кими поняттями, як «обчислення текстур-
них градієнтів», «обробка інформації про
текстурні градієнти», «обчислення похідних
текстурних градієнтів» тощо» [19; 632].
Х. Дрейфус критикував такі міркування:
«Стверджувати, що мозок при розрахунку
текстурного градієнта неодмінно здійснює
низку операцій, так само абсурдно, як ствер-
джувати, що, обертаючись своїми орбітами
навколо Сонця, планети розв’язують дифе-
ренційні рівняння або логарифмічна ліній-
ка (аналогова машина), визначаючи корінь
квадратний, здійснює ту ж послідовність
кроків, що і цифрова машина, яка шукає
відповідне значення, записане у двійковій
системі обчислення» [15; 118].
БІОЛОГІЧНИЙ КОМПОНЕНТ
ПОВЕДІНКИ МАШИН
Д рейфус передбачав можливість реалі-
зації штучного інтелекту на базі анало-
гових систем, зазначаючи, що дискретні не
здатні до розумової діяльності, схожої на
людську [15; 259, 268]. Відомий авторитет
у галузі моделювання мислення і психіки
український учений Микола Михайлович
Амосов, який очолював відділ біокіберне-
тики Інституту кібернетики АН УРСР, ука-
зував на дискретність функціонування
будь-якого інтелекту, наголошуючи на його
суто мережевій структурі [20; 78]. Зокрема,
у книзі «Алгоритми розуму» зазначено:
«Будь- який інтелект функціонує дискретно.
Якщо говорити точніше, то це сполучення
неперервних і дискретних процесів. Утім, чи
існують узагалі суто неперервні процеси? У
всякому разі, у складних системах будь-яке
неперервне є лише статистикою великої кіль-
кості окремих подій. У мозку, наприклад,
уся діяльність нейронів виражається окре-
мими імпульсами» [20; 85].
Під керівництвом Амосова з 1963 р. про-
водились роботи зі створення моделей ін-
телекту за принципом семантичних мереж
із системами підсилення-гальмування. Усві-
домлюючи технічну обмеженість тогочас-
них комп’ютерів і неспроможність прове-
дення масштабних паралельних розрахун-
ків [20; 29], Амосов паралельно працює над
розробкою систем алгоритмічного інтелек-
ту (за принципами фізичних символьних
систем із послідовною архітектурою), що
ґрунтуються на біологічних механізмах функ-
ціонування мозку, проектує велику кіль-
кість евристичних моделей складних сис-
тем тощо.
На дотримання біологічної правдоподіб-
ності в системах штучного інтелекту вказу-
вало чимало дослідників. Зокрема, Дж. Фо-
дор, намагаючись застосовувати для ство-
рення штучного інтелекту експертні сис теми
з послідовним опрацюванням символьної ін-
формації, наполягав, щоб «операції, на яких
базується поведінка машини, були того ж
типу, що й операції, які лежать в основі по-
ведінки організму» [21; 141].
Прогрес у когнітології — науці про знан ня,
що вивчає методи і прийоми його одержан-
ня, обробки, зберігання, використання, —
дає змогу пояснити й описати когнітивні
процеси, що відбуваються в мозку і від-
повідають за вищу нервову активність. Їх
ISSN 0372-6436. Вісн. НАН України, 2011, № 12 43
осмислення може стати підґрунтям для по-
будови систем сильного штучного інтелек-
ту, здатних до самостійного навчання, твор-
чості, вільного спілкування з людиною. У
ході вивчення структури мозку і процесів,
які там відбуваються, сформульовано два
загальних підходи до побудови систем
штучного інтелекту:
1) семіотичний — створення символьних
моделей штучного інтелекту за принципом
«згори донизу» (top-down) шляхом побу-
дови експертних систем, баз знань, систем
логічного висновку, які імітують високо-
рівневі психічні процеси: мислення, мірку-
вання, мову, емоції, творчість тощо;
2) біологічний — створення паралель-
них розподілених процесорів із природною
здатністю до навчання і роботою за прин-
ципом «знизу догори» (bottom-up), в осно-
ві якого лежить вивчення нейронних мереж
і еволюційних обчислень, що моделюють
інтелектуальну поведінку на основі дрібні-
ших «неінтелектуальних» елементів 3.
Відповідно, один із магістральних напря-
мів досліджень зі створення систем штуч-
ного інтелекту — це конструювання моз-
коподібних архітектур. Академік Олексій
Григорович Івахненко 4 навіть тлумачить
штучний інтелект як властивість цифро-
вої обчислювальної машини чи мережі не-
йроподібних елементів реагувати на інфор-
мацію, що надходить на її вхідні пристрої,
майже так само, як реагує в тих же інфор-
маційних умовах людина [24; 5].
Процеси видобування, обробки, збері-
гання, зчитування інформації реалізовані
у штучних нейронних мережах подібно до
біологічної нервової системи. Концепція
3 Принципи конструювання інтелектуальних сис-
тем згідно з обома підходами, їх застосування для
розв’язання різноманітних задач розкрито, зокрема,
в авторських працях [22, 23].
4 Винахідник методу групового урахування аргументів,
розробник розпізнавальної самонавчальної системи
на базі дворядного персептрона «Альфа» та багато ін.
обробки інформації в нейронних мережах
походить із принципу паралелізму, що ро-
бить їх гнучкими. Масовий паралелізм (со-
тні тисяч нейронів і більше) надає нейрон-
ним мережам особливу форму робастнос-
ті (стійкості до грубих зовнішніх впливів
із суттєвою невизначеністю). Якщо обчис-
лювальні процеси розподілені між великою
кількістю нейронів, тоді майже неважли-
во, що стан окремих нейронів відрізняється
від очікуваного. Викривлений чи неповний
вхідний сигнал так чи інакше можна роз-
пізнати; ушкоджена мережа здатна працю-
вати задовільно, а навчання не обов’язково
має бути максимально точним. При цьому
продуктивність мережі в межах деякого ді-
апазону знижується досить повільно. Крім
того, можна додатково підвищити робаст-
ність мережі, представляючи кожну влас-
тивість окремою групою нейронів [25].
Суттєвих результатів у моделюванні із за-
стосуванням нейронних мереж домоглася
школа Воррена Мак-Каллоха [26]. Однак
мережі з формальних нейронів виявились
нездатними відтворювати складні функції
мозку. Неефективними виявилися також
спроби використовувати такі мережі для ке-
рування роботами [27]. Великий інтерес ви-
кликали праці Френка Розенблатта, який
сформулював низку принципів нейродина-
міки мозку і застосовував їх для побудови
персептронів [28]. Однак строгий аналіз,
який здійснили Марвін Мінський і Сеймур
Пейперт [29], продемонстрував принципову
обмеженість нейронних мереж, побудова-
них на порогових елементах, для роз в’я-
зання низки простих задач 5. Таким чином,
до поч. 70-х рр. XX ст. загальна криза ней-
ронного підходу стала очевидною.
5 Ці функціональні обмеження персептронів побо роли
в 1986 р. Руммельхарт, Хінтон, Вільямс [31], які за-
пропонували використання диференційованих функ-
цій активації та розробили алгоритм оптимізації ваг
міжнейронних зв’язків у мережах персептронного
типу — Error Back-Propagation Algorithm.
44 ISSN 0372-6436. Вісн. НАН України, 2011, № 12
ВАРІАЦІЇ НА ТЕМУ НЕЙРОМЕРЕЖ
Т ермін «штучний інтелект» виник у
60-х рр. завдяки експертним системам
як науковий напрям, альтернативний ней-
ронним мережам. Поміж його засновників
був Марвін Мінський [30], який, хоч і зро-
бив один з найбільших внесків у теорію не-
йронних мереж 6, не зараховував цей інст-
рументарій до систем штучного інтелекту.
Мінський вважав недоречною апеля-
цію до архітектури мозку, його нейронних
структур, декларував необхідність моделю-
вання роботи людини зі знаннями. Поста-
вивши в центрі уваги операції з формально-
логічними мовними конструкціями, він сві-
домо орієнтувався на імітацію обробки ін-
формації лівою півкулею мозку. Системи,
що її виконували, названо експертними,
оскільки вони відтворюють логіку мірку-
вань експерта в певній галузі. Ці міркуван-
ня реалізуються з використанням правил
висновку, отриманих в експерта і формалі-
зованих на підґрунті обраного математич-
ного інструментарію.
Саме структура безпосередньо по в’я за-
ного з архітектурою представлення знань
стала ключовою вадою нейронних мереж —
вони не передбачають однозначного вста-
новлення правил прийняття рішень. На
сьогодні не існує формалізованої теорії
оптимізації структури цих мереж або оцін-
ки впливу архітектури на подання знань.
Незалежно від вибору останньої, мережа
здобуває знання про предметну галузь у
процесі навчання. Ці знання подаються у
вигляді ваг синаптичних зв’язків мережі і
параметрів нейронів, завдяки чому мережа
6 У 1951 р. разом з Деном Едмондсом він сконструю-
вав першу нейромережеву машину SNARC, фак-
тично ставши в наступні 50 років одним з найбільш
впливових і авторитетних фахівців у галузі штучно-
го інтелекту. Перша конференція з проблем штучно-
го інтелекту відбулася в США в 1969 р. — саме тоді
вийшла книга Мінського і Пейперта «Персептрони»
з критикою нейромережевих структур [31].
легко адаптується й узагальнює, однак не
описує повноцінно розрахункового проце-
су, застосованого в ухваленні рішення. Ін-
коли це серйозно обмежує використання
нейромережевого підходу, особливо в зада-
чах, де необхідно пояснити результат.
У 1988 р. Фодор і Пилишин оприлюд-
нили критичні зауваження про обчислю-
вальну адекватність нейронних мереж у
розв’язанні когнітивних і лінгвістичних за-
дач [32]. Мережі не задовольняють два
основні критерії пізнання — ментальне уяв-
лення і розумові процеси. За Фодором і
Пилишиним, їх мають системи штучного
інтелекту, проте не нейронні мережі: мен-
тальне уявлення характеризується ком-
бінаторним синтаксисом і семантичною
структурою; розумові процеси чутливі до
комбінаторної структури уявлення. Нау-
ковці наголошують: штучний інтелект пе-
редбачає наявність ментального уявлення,
де пізнання йде як послідовне опрацюван-
ня символьної інформації. Вони стають на
позиції класичного синтаксичного підходу
до створення систем штучного інтелекту —
використання символьної мови для подан-
ня загальних знань про предметну галузь і
конкретних знань про способи реалізації
завдання [32, 33]. Цей підхід можна втіли-
ти на сучасних комп’ютерах нейманівської
архітектури, що послідовно обробляють ін-
формацію.
Однак деякі анатомічні особливості моз-
ку принципово відрізняють його від архі-
тектури традиційних комп’ютерів. Нерво-
ва система — це паралельна машина, у тому
сенсі, що сигнали обробляються мільйона-
ми різних елементарних процесорів водно-
час. Наприклад, сітківка ока передає в мо-
зок складний вхідний сигнал не послідов-
но, як в електронних обчислювальних ма-
шинах, а через сукупність майже мільйона
окремих елементів, що надходять одночас-
но до закінчення зорового нерва, після чого
їх також одночасно опрацьовує мозок.
ISSN 0372-6436. Вісн. НАН України, 2011, № 12 45
Думка теж не плине послідовно, перехо-
дячи від одного нейрона до іншого, а водно-
раз активує велику кількість нейронів, що
відповідають деякому образові в пам’яті.
Ці нейрони активують багато інших, які
містять образ, асоціативно пов’язаний з по-
переднім. Поява конкретного образу за-
лежить від того, які нейрони активовано.
Послідовна обробка інформації не забез-
печує переходу від однієї групи багатьох
обчислювальних елементів до іншої в ло-
гічній послідовності. Тож Сірлеві аргумен-
ти з гімнастичним залом щодо ідентичності
паралельних і послідовних розрахунків ви-
глядають надуманими.
СЛАБКИЙ І СИЛЬНИЙ
ШТУЧНИЙ ІНТЕЛЕКТ
Д ля слабкого штучного інтелекту, який
уміє виконувати когнітивні завдання,
достатньо послідовної обробки символьної
інформації. Що ж до сильного, здатного до
мислення, самостійного навчання, творчос-
ті, варто уважніше поглянути на сутність
інтелекту. У пригоді нам стануть філософія
й основи біології, власне, розуміння пове-
дінки простіших мислячих істот.
Вищі тварини постійно приймають ро-
зумні рішення. Наприклад, якщо собака по-
бачить більшого за себе, то швидше за все
відбіжить, якщо ж більший пес буде за пар-
каном, гавкатиме на нього, підбігши до ого-
рожі. Бачимо елементарну логіку за схемою
«якщо…, то…, інакше…». Це не рефлекс, по-
дібний до реакції на вогонь чи біль або зви-
чайного пошуку їжі, а мислення, прийнят-
тя рішень.
У зв’язку з цим постають питання про
характер думок, організацію процесу мис-
лення. У людей плин думок має вигляд ло-
гічних мовних конструкцій: за однією фра-
зою зринає інша, виникають варіанти роз-
витку подій тощо (саме тут з’являється
місце для символьних систем штучного ін-
телекту). Однак тварини не володіють мо-
вою, не формують речень і синтаксичних
конструкцій. У них прийняття рішень має
якусь іншу форму. Вищі істоти постійно
приймають рішення, спираючись на закла-
дені в мозку моделі поведінки. І людина
мислить так, коли думки не набувають ви-
гляду логічних мовних конструкцій, — рі-
шення виникає миттєво, без логічного об-
ґрунтування.
Розмірковуючи, людина оперує не лише
словами, а й образами, асоціаціями. Часом
вона точно розуміє, що хоче сказати, але не
може підібрати влучне слово. Більше того,
коли ми згадуємо подумки, то не говоримо:
«Я був у великій світлій кімнаті, посередині
стояв стіл, два м’яких крісла, під стіною —
шафа з книгами. Там були чоловік і жінка.
Вони виглядали впевнено, були такого
зросту, мали такі фігури, обличчя, одяг.
Вони говорили про можливість побудови
систем штучного інтелекту». У такому опи-
сі багато інформації (можливо, і несуттє-
вої) втрачено. У пам’яті ситуація зафіксо-
вана насиченіше, проте не абсолютно чітко.
Зазвичай людина згадує ситуацію миттєво,
не в формі речення чи іншої синтаксичної
конструкції.
М. Амосов із цього приводу писав: «Го-
ловне мислення — образне, а не мовне. Об-
разні картини значно багатші від словес-
них, у них набагато більше розмаїття, тобто
інформації. Якщо уявити кількість мо де-
лей-образів у корі, які одночасно «живуть»,
проявляють активність, то хіба можна по-
рівняти їх з кількістю слів? Передача обра-
зів словами повільна, неповоротка й неви-
разна. Людина мислить переважно образа-
ми, а внутрішня мова, яку ми найчастіше
ототожнюємо з думками, тільки коментує
образне мислення» [20; 128].
Зазначимо, що мова для людини є лише
проекцією її думок. Однак самі думки
можуть розвиватись і без трансформації в
лінгвістичну форму. Відповідно, можна
припустити, що процес мислення у людини
46 ISSN 0372-6436. Вісн. НАН України, 2011, № 12
проходить, скоріше за все, через деякі збе-
режені у пам’яті образи, але людина усві-
домлює це через мову, носієм якої вона є.
За М. Амосовим, «взаємодія моделей-об ра-
зів становить основу граматики й синтак-
сису мови, які ми звикли зараховувати до
якостей, властивих лише їй. Мова тільки
позначає, маркує основні образи. Правда,
тим самим дії з моделями стають більш ра-
ціональними й ефективними» [20; 125].
Відповідно до цього можна припустити,
що і тварини можуть мислити подібними
категоріями (образами, але у простішій
формі), однак вони не трансформують їх
через словесні вирази. Біологічним пояс-
ненням є елементарна нерозвиненість від-
повідної ділянки мозку, що надає образам
лінгвістичного представлення.
Отже, для втілення штучного інтелекту
за принципами живої природи доцільно бу-
дувати систему, що оперує саме образами.
За необхідності можна додати модуль для
лінгвістичної інтерпретації результатів. Це,
звісно, суперечить загальноприйнятій гіпо-
тезі Ньюелла–Саймона про реалізацію
сильного штучного інтелекту лише на осно-
ві фізичних символьних систем, але наве-
дена аргументація показує прийняття ло-
гічно обґрунтованих рішень у живій приро-
ді без володіння символьною мовою. Від-
повідно, для створення штучного інтелекту
важливо вміти оперувати образами, які ре-
алізують семантику, але їх представлення
не обов’язково має бути синтаксичним або
взагалі лінгвістичним.
Семантику, як правило, представляють
вербально, однак для існування мислен-
ня це не обов’язкова умова. Людина здатна
продукувати логічні послідовності без лінг-
вістичних конструкцій, ґрунтуючись лише
на образах. Тобто для виникнення синтак-
сису семантика обов’язкова. Однак для іс-
нування семантики синтаксис зовсім не по-
трібний. І парадоксально те, що хоча син-
таксис і вищий за семантику (властивий
лише найбільш інтелектуально розвинутій
живій істоті — людині), його ми можемо
відтворити, а семантику поки що ні. Адже
вона закладена у глибинних пластах нашої
свідомості як уміння оперування саме сут-
ностями, а не їхніми лінгвістичними описа-
ми. Якщо ми це усвідомимо, а не відтворю-
ватимемо очевидні синтаксичні конструк-
ції, називаючи це інтелектуальними систе-
мами, то дійсно наблизимось до реалізації
сильного штучного інтелекту.
Проектуючи системи штучного інтелек-
ту за принципом експертного встановлен-
ня логічних правил у символьних катего-
ріях, ми свідомо штучно вбудовуємо в сис-
тему знання експерта. Ці системи не про-
дукують нових знань — вони здатні лише
оптимізувати власні параметри для обра-
них вхідних і вихідних змінних. Природа
йшла іншим шляхом.
МОЗКОПОДІБНІ СИСТЕМИ
Л огіка підказує доцільність конструю-
вання мозкоподібних систем та інтер-
претації розрахунків у нейроподібних еле-
ментах. На наш погляд, найадекватнішим
інструментарієм для відтворення розумо-
вих процесів різних живих істот виступа-
ють класичні штучні нейронні мережі, зо-
крема, асоціативної пам’яті. Як і в біологіч-
них нервових системах, там для збережен-
ня образів задіяно великі групи нейронів.
Системи паралельної обробки інформації
здатні вирішувати надскладні задачі миттє-
во, незалежно від кількості нейронів, заді-
яних у розрахунках. Ця перевага стає оче-
виднішою зі зростанням кількості нейронів
на кожному рівні. На швидкість обробки
інформації тут не впливає ані число еле-
ментів, що беруть участь в обчисленні, ані
складність функцій активації. Паралель-
на система нечутлива до дрібних помилок,
функціонально стійка: утрата кількох (і на-
віть великої кількості) зв’язків не змінює
суттєво загальний хід розрахунків.
ISSN 0372-6436. Вісн. НАН України, 2011, № 12 47
Паралельна система запам’ятовує чима-
ло інформації в розподіленому вигляді, при
цьому доступ до будь-якого фрагмента цієї
інформації просто блискавичний. Інфор-
мація зберігається у вигляді певних конфі-
гурацій ваг окремих синаптичних зв’язків,
сформованих протягом попереднього на-
вчання. Навчання можливе також у фазі
звичайної роботи мережі, з огляду на пра-
вило Хебба 7, що ототожнює таку поведінку
з біологічним прототипом. Потрібна інфор-
мація звільняється в міру того, як вхідний
вектор даних проходить і трансформуєть-
ся через цю конфігурацію зв’язків на зра-
зок асоціативної пам’яті живих істот, коли
за одним образом спливає інший.
Цими образами можуть бути, зокрема,
слова, що утворюють речення 8. Слова при
тому мають смисловий зміст та асоціатив-
ні зв’язки зі збереженими в пам’яті візуаль-
ними, звуковими, іншими образами, таким
чином вони набувають семантики — голов-
ної характеристики інтелекту.
Зв’язки в асоціативній мережі можуть
бути встановлені як між самими образами,
так і між образами і відношеннями між ни-
ми9. При цьому від останніх через систе-
му зв’язків нейронної мережі можна знов
перейти до одного зі збережених у пам’яті
образів. Таким чином, можна реалізувати
синтаксис у вигляді лінгвістичних струк-
тур, що володіють смисловим навантажен-
ням. Але взаємозв’язки тут будуть не стро-
го прописуватись, як в експертних систе-
мах, а самостійно виділятися у процесі на-
вчання, утворюючи семантично значимі
синтаксичні конструкції.
Наголосимо, що паралельна система не
маніпулює символами відповідно до струк-
7 Що частіше активізується міжнейронний зв’язок, то
сильнішим він стає.
8 Так реалізується синтаксис — специфічна мозкова
діяльність людини.
9 Відношення — це поєднувальна конструкція, що ви-
значає взаємозалежність між образами.
турних правил. Маніпулювання символа-
ми — одна з багатьох «інтелектуальних»
навичок, яким мережа може навчитися або
не навчитися.
Зважаючи на викладене, можна припус-
тити, що побудована за описаним прин-
ципом нейронна мережа виконуватиме ін-
телектуальні дії і без символьної мови і
здатності до створення синтаксичних кон-
струкцій. Але для того, щоб у нас з’явилась
можливість розуміння процесу проходжен-
ня «думок» у такій мережі, можна додати
шар нейронів, що інтерпретуватиме обра-
зи лінгвістично, подібно до вихідної зірки
Гроссберга чи розпізнавального шару в асо-
ціативній нейронній мережі.
Упевнений, що реалізація описаної схе-
ми не викличе значних ускладнень. Але як
спонукати її функціонувати і виконувати
ці дії? Навіщо їй це робити? Що буде сти-
мулом для нейронної мережі займатися по-
дібними розрахунками? Це питання, гадаю,
набагато складніше за вибір конструкції
мережі.
Ознайомлення з численною літературою
з нейробіології дає нам деякі підстави при-
пустити, що для живого організму такими
стимулами можуть бути саме різні нейро-
медіатори (біологічно активні хімічні речо-
вини, за допомогою яких здійснюється пе-
редача електричного імпульсу через синап-
тичний простір між нейронами). Причому
низка нейромедіаторів, таких як дофамін,
серотонін, ендорфіни тощо, виділяються як
реакція на досягнення якоїсь мети і сприя-
ють піднесеності, радості, одержанню насо-
лоди живим організмом. Метою може бути
задоволення як суто біологічних потреб,
так і, наприклад, природної допитливості
чи розв’язання людиною певного завдання.
Є нейромедіатори, такі як епінефрин (адре-
налін), норепінефрин чи, знову ж таки, до-
фамін, які сприяють підвищенню активнос-
ті, викликають занепокоєння тощо. Ацетил-
холін, навпаки, сприяє заспокоєнню і бере
48 ISSN 0372-6436. Вісн. НАН України, 2011, № 12
участь у процесі запам’ятовування інфор-
мації, нейром’язовій передачі імпульсів.
Зауважимо, що емоційний прояв впливу
нейромедіаторів, очевидно, відрізняється
від їхньої участі в процесі обробки інфор-
мації. Коли відбувається передача сигна-
лів для прийняття якихось рішень або вжи-
вання певних дій, то імпульси проходять у
мозку, активізуючи окремі ланцюги нейро-
нів. Тут видається, що можна було б обі-
йтися тільки двома функціями нейромедіа-
торів — посилення і гальмування. Для про-
яву ж емоційних реакцій цього недостат-
ньо. Крім того, у цьому процесі задіються
не окремі з’єднання нейронних зв’язків —
нейромедіатори впливають на значні ді-
лянки мозку.
Технологічно не можна вирішити завдан-
ня передачі емоційного стану шляхом фор-
мального призначення якихось нейронів
відповідальними за центр задоволення по-
треб, а далі просто підвищувати чи знижу-
вати активність цих нейронів залежно від
ситуації. Штучна нейронна мережа само-
стійно не визначить, яка ділянка відпові-
дальна за біль, страх, радість, задоволення.
І ми теж не можемо формально призначи-
ти її такою, як це можливо в алгоритмічних
задачах.
Відповідно, на наш погляд, це і буде осно-
вним гальмом на шляху створення систем
штучного інтелекту — знайти аналог тій
розмаїтості хімічних елементів (нейромеді-
аторів), які беруть участь у процесі оброб-
ки сигналів у мозку, а не просто імітувати
дві функції — зниження і підвищення ак-
тивності нейронів. Але, гадаю, і це завдання
можна вирішити і втілити у штучній систе-
мі. Як варіант, різні нейромедіатори у сис-
темах штучного інтелекту можуть бути від-
творені різними електричними сигналами,
що характеризуватимуться власними амп-
літудами, частотами тощо, і кожен нейрон у
штучній нейронній системі буде мати філь-
три, здатні пропускати окремі види сигна-
лів, що імітуватимуть різні функції нейро-
медіаторів.
Перші системи штучного інтелекту
(якщо вони все-таки з’являться) матимуть
обмежений функціонал 10. Однак стрибок
до рівня людського розуму відбудеться
надзвичайно швидко 11, і щабель розвитку
штучного інтелекту віддалятиметься від
людського дедалі швидше. Математик і
письменник Вернор Віндж на симпозіумі,
проведеному Центром космічних дослі-
джень NASA ім. Джорджа Льюїса й Огай-
ським аерокосмічним інститутом (1993),
наголосив: «Протягом найближчих 30 ро-
ків у нас з’явиться технічна можливість
створити надлюдський інтелект. Невдовзі
після цього людська епоха буде завершена»
[35]. Він переконаний: розумна машина не
буде «інструментом» людей так само, як
люди не стали знаряддям кроликів, берес-
тянок чи шимпанзе [35]. З цим згодні бага-
то науковців, що працюють над створенням
штучного інтелекту.
Цікавим із цих позицій виглядає тест на
інтелектуальність [36], згідно з яким най-
переконливішим доказом мислення машин
є їхня інтелектуальна мобільність, тобто
спроможність розв’язати ту чи іншу реаль-
ну задачу з урахуванням трьох законів ро-
бототехніки А. Азімова:
— робот не завдає людині шкоди своїми
діями і не допускає її через бездіяльність;
— робот підкоряється наказам людини,
коли вони не суперечать першому закону;
— робот турбується про свою безпеку,
доки це не суперечить першому і другому
законам [37].
Стосовно такого тесту на інтелектуаль-
ність зауважимо, що насправді далеко не
10 Багато вчених вказують на некоректність створення
повністю сформованого інтелекту дорослої людини,
як прагне класична синтаксична концепція.
11 Еквівалентність потенціалів людського і штучного
інтелекту зазвичай називають точкою технологічної
сингулярності.
ISSN 0372-6436. Вісн. НАН України, 2011, № 12 49
всі люди дотримуються цих законів, що не
заважає їм лишатися інтелектуальними іс-
тотами. А жодна машина свідомо ще не за-
подіяла шкоди людям, хоча машини точно
не володіють інтелектом. Отже, така пере-
вірка штучно створеної системи на інтелек-
туальність не витримує ніякої критики.
Одначе цей тест, як і самі закони робо-
тотехніки, порушує інші, глибші проблеми.
Якщо системи сильного штучного інтелек-
ту на засадах біологічної правдоподібнос-
ті таки з’являться, як встановити в них по-
ведінкові обмеження? Адже чіткі правила
припустимі в експертних системах. Нато-
мість системи паралельної обробки інфор-
мації містять силу-силенну характеристич-
них параметрів, які не піддаються змістовій
інтерпретації. Тож невідомо, які параме-
три необхідно змінити, щоб нейронні мере-
жі функціонували належним чином (пара-
метри цих мереж, як і нейронів мозку, ви-
значаються у процесі навчання на реальних
даних). Оскільки це розподілені системи,
штучні обмеження на визначені параметри
мало що дадуть, бо сигнали завжди можуть
пройти іншим шляхом.
У зв’язку з цим логічно виникає ідея «ви-
ховувати» штучний інтелект, ніби дитину.
Цікаві думки щодо «морально-етичного ви-
ховання» штучного інтелекту викладено в
[38]. Однак якщо людині моральні принци-
пи прищеплюють страхом перед карами, по-
чинаючи від смерті і позбавлення волі і за-
кінчуючи осоромленням і релігійними за-
певненнями про неминучу розплату після
смерті, то на штучний інтелект це не подіє.
Академік М. Амосов говорив про спеці-
альне «натренування» соціальних почуттів
штучного інтелекту, підвищення активності
моделей слів «обов’язок», «совість», «честь»,
«патріотизм» і пов’язаних з ними образів
[20; 72, 139]. Хоча він усе-таки сумнівався
в дотриманні штучним інтелектом законів
робототехніки, бо той здатен до творчості,
перевтілення, врешті, регулювання цих
«вроджених» переконань. М. Амосов скеп-
тично ставився до забезпечення дотриман-
ня обмежень в поведінці штучного інтелек-
ту, наголошуючи, що це питання найголо-
вніше у програмі його створення [20; 207].
Відповідно, основою для створення
штучної інтелектуальної системи могла би
слугувати здатна до самовдосконалення
структура мозку дорослої психічно врівно-
важеної розумної людини.
* * *
Якщо все-таки буде сконструйовано архі-
тектуру штучної системи, що могла би слу-
гувати носієм інтелекту, то, напевно, най-
перспективніші для людства дослідження у
найближчому часі можуть стосуватися ска-
нування людського мозку і зчитування ін-
формації з нейронів з записом на електронні
носії (перепрошую за відхід у царину фан-
тастики, але тоді кожна людина в букваль-
ному сенсі дістане шанс на безсмертя).
Одним з можливих наслідків створення
штучного інтелекту буде, як би це не звучало,
завершення людської епохи, а з іншого боку —
новий рівень існування, неймовірно швидкий
технологічний розвиток, безсмертя і багато ін-
шого, про що людство давно мріяло.
Чи варта гра свічок? Особисто я не дав би
ствердної відповіді. Однак зупинитися вже
неможливо. Багато країн вкладає величезні
кошти в дослідження зі створення штучного
інтелекту. І навіть якби їх заборонили, усві-
домивши потенційну загрозу існуванню
людства, технологічні, військові, економіч-
ні, медичні, інші бонуси так чи інакше спо-
нукали б розвиток штучно-інтелектуальних
технологій. Якщо ми і зійдемо з цієї дороги,
хтось неминуче попрямує нею далі.
1. Платон. Сочинения. — М.: Мысль, 1971. — Т. 3,
Ч. 1. — 610 с.
2. Гоббс Т. Левиафан, или Материя, форма и власть
государства церковного и гражданского //
Гоббс Т. Сочинения: В 2 т. — М.: Мысль, 1964. —
Т. 2. — С. 45–678.
50 ISSN 0372-6436. Вісн. НАН України, 2011, № 12
3. Leibniz G.W. Selections. — New York: Charles Scrib-
ner’s Sons, 1951.
4. Turing A.M. Computing Machinery and Intelligence //
Mind. — 1950. — V. 59, № 236. — P. 433–460.
5. Сергієнко І.В. Інформатика в Україні: становлен-
ня, розвиток, проблеми. — К.: Наукова думка,
1999. — 354 с.
6. Newell A., Shaw J.C., Simon H.A. Report on a General
Problem-Solving Program // Proceedings of the In-
ternational Conference on Information Processing. —
1959. — P. 256–264.
7. Newell A., Simon H.A. GPS: A Program that Simu-
lates Human Thought // Computers and Thought
(E.A. Feigenbaum, J. Feldman, eds.). — New York:
McGraw-Hill, 1963. — P. 101–126.
8. Newell A., Simon H.A. Human Problem Solving. —
Englewood Cliffs, NJ: Prentice-Hall, 1972. — 920 p.
9. Newell A. Physical Symbol Systemsl // Cognitive
Science. — 1980. — № 4. — P. 135–183.
10. Simon H.A., Newell A. Heuristic Problem Solving:
The Next Advance in Operations Research // Op-
erations Research. — 1958. — V. 6. — P. 1–10.
11. Simon H.A. The Shape of Automation for Men and
Management. — New York: Harper & Row, 1965.
12. Feigenbaum E.A. Artificial Intelligence: Themes in
the Second Decade // IFIP Congress. — 1968. —
V. 2. — P. 1008–1024.
13. Minsky M. (ed.). Semantic Information Processing. —
Cambridge Mass.: MIT Press, 1968. — 440 p.
14. Dreyfus H.L. What Computers Can’t Do: A Critique
of Artificial Reason. — New York: Harper & Row,
1972. — 260 p.
15. Дрейфус Х. Чего не могут вычислительные
машины: Критика искусственного разума /
Пер. с англ. — Изд. 2-е. — М.: Книжный дом
«ЛИБРОКОМ», 2010. — 336 с.
16. Searle J.R. Minds, Brains and Programs // Behav-
ioral and Brain Sciences. — 1980. — V. 3, № 3. —
P. 417–458.
17. Searle J.R. Is the Brain’s Mind a Computer Prog-
ram? // Scientific American. — 1990. — № 262(1). —
P. 26–31.
18. Churchland P.M., Churchland P.S. Could a Machine
Think? // Scientific American. — 1990. — № 262. —
P. 32–37.
19. Fodor J.A. The Appeal of Tacit Knowledge in Psy-
chological Explanation // The Journal of Philoso-
phy. — 1968. — V. LXV, № 20. — P. 627–640.
20. Амосов Н.М. Алгоритмы разума. — К.: Наукова
думка, 1979. — 223 с.
21. Fodor J.A. Psychological Explanation: An Introduc-
tion to the Philosophy of Psychology. — New York:
Random House, 1968. — 165 p.
22. Матвійчук А.В. Моделювання фінансової стій-
кості підприємств із застосуванням теорій не-
чіткої логіки, нейронних мереж і дискримінант-
ного аналізу // Вісник НАН України. — 2010. —
№ 9. — С. 24–46.
23. Матвійчук А.В. Штучний інтелект в економіці:
нейронні мережі, нечітка логіка: Монографія. —
К.: КНЕУ, 2011. — 439 с.
24. Ивахненко А.Г. Предисловие // Амосов Н.М. Алго-
ритмы разума. — К.: Наукова думка, 1979. — 223 с.
25. Hinton G.E. Shape Representation in Parallel Sys-
tems // Proceedings of the 7th International Joint
Conference on Artificial Intelligence. — 1981. —
P. 1088–1096.
26. McCulloch W.S. The Reliability of Biological Systems //
Self-Organizing Systems (M.C. Yovits, S. Cameron,
eds.). — London: Pergamon Press, 1960. — P. 264–
281.
27. Сутро Л., Киллмер У. Совокупность решающих
устройств для управления роботом // Интеграль-
ные роботы / Пер. с англ. под ред. Г.Е. Поздняка.
Вып. 1. — М.: Мир, 1973. — С. 112–161.
28. Rosenblatt F. The Perceptron: A Probabilistic Model
for Information Storage and Organization in the
Brain // Psychological Review. — 1958. — № 65. —
P. 386–407.
29. Mіnsky M.L., Papert S.A. Perceptrons. — Cambridge,
MA: MIT Press, 1969. — 263 p.
39. Minsky M.L. Steps Towards Artificial Intelligence //
Proceedings of the Institute of Radio Engineers. —
1961. — V. 49. — P. 8–30. Передруковано в: Compu-
ters and Thought / E.A. Feigenbaum, J. Feldman,
eds. — New York: McGraw-Hill, 1963. — P. 406–450.
31. Rummelhart D.E., Hinton G.E., Williams R.J. Lear-
ning Internal Representation by Back-Propagation
Errors // Nature. — 1986. — № 23. — P. 533–536.
32. Fodor J.A., Pylyshyn Z.W. Connectionism and Cogni-
tive Architecture: a Critical Analysis // Cognition. —
1988. — V. 28. — P. 3–72.
33. Pylyshyn Z.W. Cognition and Computation: Issues in
the Foundations of Cognitive Science // Behavioral
and Brain Sciences. — 1980. — № 3:1. — P. 154–169.
34. Матвійчук А.В. Моделювання та аналіз еконо-
мічних систем на підґрунті теорії нечіткої логіки:
Дис. ... д. екон. наук: 08.00.11. — К., 2008. — 470 с.
35. Vinge V. The Coming Technological Singularity:
How to Survive in the Post-Human Era // Procee-
dings of a Symposium Vision-21: Interdisciplinary
Science & Engineering in the Era of CyberSpace,
held at NASA Lewis Research Center (NASA Con-
ference Publication CP-10129). — 1993.
36. Большаков В.І., Дубров Ю.І. Інтелектуальна мо-
більність логічної техніки // Вісник НАН Украї-
ни. — 2010. — № 8. — С. 57–64.
37. Азімов А. Кінець Вічності: вибрані твори / Пер. з
англ. — К.: Дніпро, 1990. — 767 с.
38. Широчин В.П. Слово об интеллекте. Концепту-
альные основы системной психологии. — К: ТОО
«ВЕК», 1999. — 304 с.
ISSN 0372-6436. Вісн. НАН України, 2011, № 12 51
А. Матвійчук
МОЖЛИВОСТІ ТА ПЕРСПЕКТИВИ
СТВОРЕННЯ ШТУЧНОГО ІНТЕЛЕКТУ
Р е з ю м е
У статті досліджено історичні, філософські, техно-
логічні аспекти створення систем штучного інтелек-
ту, розкрито різні підходи до їх конструювання. По-
казано місце експертних систем і нейромережевих
технологій у цьому процесі. Досліджено адекватність
тестів штучних систем на інтелектуальність, подано
авторські міркування щодо можливості створення
штучного інтелекту і ролі нейромедіаторів у процесі
мислення. Запропоновано підхід до конструювання
систем штучного інтелекту.
Ключові слова: тест на інтелектуальність, асоціативна
нейронна мережа, нейромедіатори.
A. Matviychuk
POSSIBILITY AND PROSPECTS
IN ARTIFICIAL INTELLIGENCE CREATING
A b s t r a c t
The paper covers historical, philosophical, technology as-
pects of artificial intelligence systems creating. Different
approaches to such systems constructing are clarified.
The place of expert systems and neural networks in this
process is shown. The artificial system tests for intellec-
tuality are examined as to their adequacy. The author
gives his own ideas about the possibility of artificial intel-
ligence creating and the role of neurotransmitters in the
process of thinking. He also presents approach to artifi-
cial intelligence systems construction.
Keywords: test for intellectuality, associative neural net-
work, neurotransmitters.
|
| id | nasplib_isofts_kiev_ua-123456789-31503 |
| institution | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
| issn | 0372-6436 |
| language | Ukrainian |
| last_indexed | 2025-11-24T11:37:09Z |
| publishDate | 2011 |
| publisher | Видавничий дім "Академперіодика" НАН України |
| record_format | dspace |
| spelling | Матвійчук, А. 2012-03-09T15:03:17Z 2012-03-09T15:03:17Z 2011 Можливості та перспективи створення штучного інтелекту / А. Матвійчук // Вісн. НАН України. — 2011. — № 12. — С. 36-51. — Бібліогр.: 38 назв. — укр. 0372-6436 https://nasplib.isofts.kiev.ua/handle/123456789/31503 У статті досліджено історичні, філософські, технологічні аспекти створення систем штучного інтелекту, розкрито різні підходи до їх конструювання. Показано місце експертних систем і нейромережевих технологій у цьому процесі. Досліджено адекватність тестів штучних систем на інтелектуальність, подано авторські міркування щодо можливості створення штучного інтелекту і ролі нейромедіаторів у процесі мислення. Запропоновано підхід до конструювання систем штучного інтелекту. The paper covers historical, philosophical, technology aspects of artificial intelligence systems creating. Different approaches to such systems constructing are clarified. The place of expert systems and neural networks in this process is shown. The artificial system tests for intellectuality are examined as to their adequacy. The author gives his own ideas about the possibility of artificial intelligence creating and the role of neurotransmitters in the process of thinking. He also presents approach to artificial intelligence systems construction. uk Видавничий дім "Академперіодика" НАН України Вісник НАН України Статті та огляди Можливості та перспективи створення штучного інтелекту Possibility and prospects in artificial intelligence creating Article published earlier |
| spellingShingle | Можливості та перспективи створення штучного інтелекту Матвійчук, А. Статті та огляди |
| title | Можливості та перспективи створення штучного інтелекту |
| title_alt | Possibility and prospects in artificial intelligence creating |
| title_full | Можливості та перспективи створення штучного інтелекту |
| title_fullStr | Можливості та перспективи створення штучного інтелекту |
| title_full_unstemmed | Можливості та перспективи створення штучного інтелекту |
| title_short | Можливості та перспективи створення штучного інтелекту |
| title_sort | можливості та перспективи створення штучного інтелекту |
| topic | Статті та огляди |
| topic_facet | Статті та огляди |
| url | https://nasplib.isofts.kiev.ua/handle/123456789/31503 |
| work_keys_str_mv | AT matvíičuka možlivostítaperspektivistvorennâštučnogoíntelektu AT matvíičuka possibilityandprospectsinartificialintelligencecreating |