Головна |
« Попередня | Наступна » | |
СВІДОМІСТЬ, МОЗОК І ПРОГРАМИ 86 |
||
Яку психологічну і філософську значимість слід нам приписати недавнім зусиллям з комп'ютерного моделювання пізнавальних здібностей людини? Я вважаю, що, відповідаючи на це питання, корисно відрізняти «сильний» AI (як я це називаю) від «слабкого» або «обережного»; AI (Artificial Intelligence - Штучний Інтелект). Згідно слабкому AI, основна цінність комп'ютера у вивченні свідомості полягає в тещ, що він дає нам певний дуже потужний інструмент. Наприклад, він дає нам можливість більш строгим і точним чином формулювати і перевіряти гіпотези. Згідно ж сильному AI, комп'ютер-г-це не просто інструмент у дослідженні свідомості; комп'ютер, запрограмований відповідним чином, насправді і є якесь свідомість в тому сенсі, що можна буквально сказати, що ЦРН наявності відповідних програм комп'ютери розуміють, а також володіють іншими когнітивними станами. Згідно сильному AI, оскільки забезпечений програмою комп'ютер володіє когнітивними станами, програми - не просто засоби, що дозволяють нам перевіряти психологічні пояснення; самі програми суть пояснення. У мене немає заперечень проти домагань слабкого AI, у всякому разі в цій статті. Моє обговорення тут буде направлено на домагання, які я визначив тут як домагання сильного AI, саме: на домагання, згідно з яким відповідним чином запрограмований комп'ютер буквальним чином володіє когнітивними станами, і тим самим програми пояснюють людське пізнання. Коли я далі буду згадувати AI, я буду мати на увазі сильний варіант, виражений е. цих двох домаганнях. , Я розгляну роботу Роджера Шенка і його колег в Йейл (Schank and Abelson 1977), так як я знайомий з нею більше, ніж з іншими подібними точками зору, і тому що вона являє собою дуже ясний приклад того типу робіт, які я хотів би розглянути. Але нічого в моєму наступному викладі ие залежить від деталей програм Шенка. Ті ж аргументи застосовні і до SHRDLU Винограду (Winograd 1973), і до ELIZA Вейценбаум (Weizenbaum 1965), і, по суті, до будь-якого моделювання феноменів чоловіча-ської психіки засобами машин Тьюринга. Дуже коротко, опускаючи різноманітні деталі, можна описати програму Шенка таким чином: мета програми - змоделювати людську здатність розуміти розповіді. Для здібності людей розуміти розповіді характерно, що люди здатні відповідати на питання про даний оповіданні навіть у тих випадках, коли дається ними інформація не виражена в оповіданні явним чином. Так, наприклад, уявіть, що вам дано наступний розповідь: «Людина зайшла в ресторан і замовив гамбургер. Коли гамбургер подали, виявилося, що він підгорів, і людина в гніві залишив ресторан, не заплативши за гамбургер ї не залишивши чайових ». І от якщо вас запитають: «З'їв чи людина гамбургер?», Ви, мабуть, відповісте: «Ні, не з'їв». Точно так само, якщо вам пред'являть наступний розповідь: «Людина зайшла в ресторан і замовив гамбургер; коли гамбургер подали, він йому дуже сподобався; і покидаючи ресторан, він перед оплатою за рахунком дав офіціантці великі чайові,» і запитають: «З'їв чи людина свій гамбургер? », ви, мабуть, відповісте:« Так, з'їв ». І ось машини Шенка можуть точно так само відповідати на питання про ресторани. У цих цілях вони володіють якимось «поданням» («репрезентацією») тієї інформації про ресторани, яка буває у людей і яка дає людям можливість відповідати на подібні питання, коли їм пред'явлено якийсь розповідь, на зразок тих, що наведені вище. Коли машині пред'являють розповідь і потім ставлять запитання, вона роздрукує таку відповідь, який ми очікували б від людини, якій пред'явлено подібний розповідь. Прихильники сильного АІ стверджують, що в цій послідовності запитань і відповідей машина не тільки моделює якусь людську здатність, але що, крім того: 1. Мох & про сказати буквальним чином, що машина розуміє розповідь і дає відповіді на запитання; 2. Те, що роблять машина і її програма, пояснює людську здатність розуміти розповідь і відповідати на запитання про нього. Мені, однак, здається, що робота Шенка 1 жодним чином не підкріплює жодне з цих двох тверджень, і я зараз спробую показати це. Будь-яку теорію свідомості можна перевірити, наприклад, так: задатися питанням, що б це означало, що моя свідомість насправді функціонує у відповідності з тими принципами, про які дана теорія стверджує, що відповідно до ними функціонують всі свідомості. Докладемо цей тест до програми Шенка за допомогою наступ-ного Gedankenexperiment 87. Уявімо собі, що мене замкнули в кімнаті і дали якийсь масивний текст китайською мовою. Уявімо далі, що я Ії знаю ні письмового, ні усного китайської мови (так воно і є насправді) і що я не впевнений Навіть, що розпізнав би китайський письмовий текст в якості такого, зумівши відрізнити його, скажімо, від японського письмового тексту або від яких-небудь безглуздих закорючек. Для мене китайське лист якраз і Являє собою набір безглуздих закорючек Уявімо далі, що слідом за цією першою китайською рукописом мені дали другий китайську рукопис разом з набором правил зіставлення другого рукописи з першої Правила ці англійською мовою, і я розумію їх, як зрозумів б будь-який інший носій англійської мови. І ось претензії сильного AI полягають у тому, що програмований комп'ютер розуміє оповідання та його програма в деякому сенсі пояснює людське розуміння. Але ми тепер можемо розглянути ці претензії в світлі нашого уявного експерименту. 1. Що стосується першої претензії, мені здається абсолютно очевидним, що в даному прикладі я не розумію жодного слова в китайських оповіданнях. Мої входи і виходи не відрізняються від входів н виходів носія китайської мови, і я можу володіти якою завгодно формальної програмою, і все ж я нічого не розумію. За тим же самим підставах комп'ютер Шенка нічого не розуміє ні в яких оповіданнях - в китайських, в англійських, в яких завгодно, оскільки у випадку з китайськими розповідями комп'ютер - це я, а у випадках, де комп'ютер не є я, він не володіє ніж -то більшим, ніж я мав в тому випадку, в якому я нічого не розумів. 2. Що стосується другої претензії, - що програма пояснює людське розуміння, - ми бачимо, що комп'ютер і його програма не дають достатніх умов розуміння, оскільки комп'ютер і програма працюють, а між тим розуміння-то немає. Але, може бути, при цьому створюється хоча б необхідна умова або робиться істотний внесок у розуміння? Одне з тверджень прихильників сильного AI полягає в тому, що коли я розумію якийсь розповідь англійською мовою, я роблю в точності те ж саме - чи, може, майже те ж саме, - що я робив, маніпулюючи китайськими символами. Випадок з англійською мовою, коли я розумію, відрізняється від випадку з китайською мовою, коли я не розумію, просто тим, що в першому випадку я проробляю більше маніпуляцій з формальними символами. Я не показав, що це твердження помилкове, але в даному прикладі воно безумовно має здаватися неправдоподібним. А тієї правдоподібністю, якої воно все ж володіє, воно зобов'язане припущенням, ніби ми можемо побудувати програму, яка буде мати ті ж входи н виходи, що і носії мови, до того ж ми виходимо з припущення, що для носіїв мови є такий рівень описа- ня, на якому вони також є інстанцнаціямі програми. На основі даних двох тверджень ми допускаємо, що навіть якщо програма Шенка не вичерпує всього, щоб ми могли б дізнатися про розуміння, вона, можливо, є хоча б частину цього. Я допускаю, що це емпірично можливо, але поки ніхто не привів ні найменшої підстави, щоб могли вважати, що це істинно, мій приклад наводить на думку, - хоча, звичайно, і не доводить, - що комп'ютерна програма просто не має ніякого відношення До моєму розумінню розповіді. У разі китайського тексту у мене є все, що може вкласти в мене штучний інтелект допомогою програми, але я нічого не розумію; в разі англійського тексту я розумію все, але поки що немає ніяких підстав думати, що моє розуміння має щось спільне з комп'ютерними програмами, т. Але що ж все-таки є у мене в разі англійських пропозицій, чого у мене немає у випадку китайських пропозицій? Очевидна відповідь полягає в тому, що стосовно перших я знаю, що вони означають, а щодо другого у мене немає ні найменшого уявлення, що вони могли б означати. Але в чому таке уявлення могло б складатися і чому ми ие могли б забезпечити їм машину? Чому машина не могла б дізнатися щось таке про мене, що означало б моє розуміння англійських пропозицій? Я повернуся до цих питань пізніше, але спочатку хочу продовжити свій приклад. У мене були випадки представити цей приклад деяким людям, що працюють в області AI, і, що цікаво, вони, мабуть, виявилися не згодні один з одним, що вважати правильною відповіддю на нього. У мене накопичилося вражаюче розмаїття відповідей, і нижче я розгляну найпоширеніші з них (класифіковані відповідно до їх географічним походженням). Але спочатку я хочу упередити деякі поширені непорозуміння щодо «розуміння»: у ряді з цих дискусій можна знайти безліч химерних тлумачень слова «розуміння». Мої критики вказують, що є багато різних ступенів розуміння; що «розумінь» - це не простий двомісний предикат, що є різні види та рівні розуміння, і часто навіть закон виключеного третього неможливо простим чином докласти до тверджень форми 4х розуміє у »; що під багатьох випадках питання, чи розуміє х у, виявляється питанням нашого рішення, а не простим фактичним питанням н так далі. На все це я хочу відповісти: «Звичайно, звичайно». Але все це не має ніякого відношення до обговорюваних питань. Є ясні випадки, в яких можна буквально говорити про розуміння, н ясні випадки, в яких про нього не можна говорити; і мені для моєї аргументації в цій статті тільки й потрібні ці два види випадків 88. Я розумію розповіді англійською мовою; в меншій мірі я розумію розповіді по-французьки; ще в меншій мірі я розумію розповіді по-німецьки; а по-китайськи взагалі не розумію. Що ж до мого автомобіля і моєї лічильної машннкі, то вони взагалі нічого не розуміють; вони не по цій частині. Ми часто метафорично і аналогического атрібутіруем «розуміння» та інші когнітивні предикати автомобілям, рахунковим машинам н іншим артефактів, але такі атрибуції нічого не доводять. Ми говоримо: «Двері знає, коли відкриватися, так як в ній є фотоелемент», «Рахункова машинка знає (вміє, здатна), як складати і віднімати, але не ділити» і «Термостат сприймає зміни температури». Дуже цікаво, на якій підставі ми робимо такі атрибуції, і це підстава пов'язано з тим, що ми поширюємо на артефакти нашу власну интенциональность s; наші інструменти суть продовження наших цілей, н тому ми знаходимо природним приписувати їм метафоричним чином интенциональность; але я вважаю, що такі приклади не вирішують ніяких філософських питань. Той зміст, в якому автоматична двері «розуміє інструкції» за допомогою свого фотоелемента, - це зовсім не той зміст, в якому я розумію англійську мову. Якщо мається на увазі, що програмований комп'ютер Шенка розуміє розповіді в тому ж метафоричному сенсі, в якому розуміє двері, а не в тому сенсі, в якому я розумію англійську мову, то це питання не стоїть і обговорювати. А тепер розглянемо відповіді:
|
||
« Попередня | Наступна » | |
|
||
Інформація, релевантна "СВІДОМІСТЬ, МОЗОК І ПРОГРАМИ 86" |
||
|