Головна |
« Попередня | Наступна » | |
в. ВІДПОВІДЬ ВІД КІЛЬКОХ житлами (Берклі) |
||
«Весь ваш аргумент виходить з передумови, що AI веде мову тільки про аналогових і цифрових комп'ютерах. Але це всього лише сучасний стан технології. Що б не представляли собою ті каузальні процеси, які, як ви кажете, істотні для інтенціональності (при допущенні, що ви маєте рацію), в кінцевому рахунку ми навчимо-ся створювати пристрої, що володіють цими каузальними процесами, і це буде штучним інтелектом. Так що ваші аргументи жодним чином не спрямовані на здатність штучного інтелекту продукувати і пояснювати пізнання ». Насправді у мене немає заперечень проти цієї відповіді, хіба що одне: він насправді трівіалізует задум сильного AI, перевизначаючи його як все те, що штучно продукує і пояснює пізнання, Вазкность ж первісної претензії , заявленої від особи штучного інтелекту, полягала в тому, що вона представляла собою точний цілком певну тезу: ментальні процеси суть обчислювальні цррцесси над формально певними елементами. Моя мета полягала в тому, щоб оскаржити цю тезу. Якщо ж претензія перевизначена так, що вона більш не збігається з цією тезою, то. і мої заперечення більш ненріложіми, тому що у нас в руках не залишається жодної перевіряється гіпотези, і якій їх можна було б докласти. Повернемося тепер до питання, на якій я обіцяв спробувати відповісти: в припущенні, що в моєму самому першому прикладі я знижую англійську мову і не розумію китайський, і тому машина не розуміє ії по-англійськи, ні по-китайськи, все ж має бути в мені щось, завдяки чому істинно, що я розумію англійську мову, і також має бути в мені відповідне щось, завдяки чому істинно, що ні розумінню китайський. І чому зби ми не могли передати ці щось, - чим би вони не були, - машині? Я в принципі ие бачу жодних підстав,. чому б ми не могли передати машині здатність розуміти англійську або китайську мови, бо в деякому важливому сенсі наші тіла й наші мізки суть «точності такі ж самі машини. Hq З іншого боку я бачу дуже сильні підстави для твердження, що ми не змогли б передати такі здібності машині в тому випадку, коли функціонування цієї машини визначено тільки в термінах обчислювальних процесів над формально певними елементами; тобто коли функціонування машини визначено як інстанціацій якоїсь комп'ютерної програми. Не тому я здатний розуміти англійську мову і маю ще інші форми інтенціональності, що я є інстанціацій комп'ютерної програми (я, напевно, є інстанціацій якого завгодно числа комп'ютерних програм), але - наскільки ми знаємо - тому, що я є організмом певного роду з певною біологічної (тобто хімічної і фізичної) структурою, і ця структура, за певних умов, каузально здатна продукувати сприйняття, дія, розуміння ^ навчання І інші інтеіціоіальіие феномени. І один аспект пропонованого Мною аргументу полягає в тому, що лише щось таке, що володіє цими каузальними здібностям і, могло б володіти интенциональностью. Бути може, інші фізичні та хімічні процеси могли б продукувати в точності ті ж ефекти; бути може, приміром, марсіани також володіють интенциональностью, але їхні мізки зроблені з іншої речовини. Це - емпіричний питання, подібно питання про те, чи може фотосинтез здійснюватися чимось мають хімічну будову, відмінне від хімічної будови хлорофілу. Але основний пункт пропонованого мною аргументу полягає в тому, що ніяка чисто формальна модель ніколи сама по собі не буде достатня для інтенціональності, тому що формальні властивості самі по собі не конституюють интенциональность, і вони самі по собі не володіють каузальними здібностями, за винятком здатності породжувати, будучи інстанціірованнимі, наступну стадію формалізму, коли машина запущена і працює. І будь-які інші каузальні здібності, наявні у конкретних реалізацій формальної моделі, не мають відношення до самої цієї формальної моделі, тому що ми завжди можемо помістити цю ж саму формальну модель в яку-небудь іншу реалізацію, в якій ці каузальні властивості очевидним чином відсутні. Навіть якщо носії китайської мови якимось дивом в точності реалізують програму Шенка, ми можемо помістити ту ж саму програму в носіїв англійської мови, в шланги або в комп'ютери - але ж ні те, ні інше, ні третє не розуміє китайської мови, незважаючи на програму. У функціонуванні мозку важлива не та формальна тінь, яку відкидає послідовність синапсів, а дійсні властивості цих послідовностей. Всі знайомі мені аргументи на користь сильного варіанту AI наполягають на тому, щоб намалювати якийсь абрис, слідуючи тіні, що відкидається пізнанням, і потім стверджувати, що ці тіні і суть та сама штука, тінями якої вони є. На закінчення я хочу спробувати сформулювати деякі загальнофілософські міркування, неявно присутні в моєму аргументі. Для ясності я постараюся побудувати виклад у вигляді питань і відповідей і почну з одного побитого питання, а саме: «Чи може машина мислити?» Відповідь очевидним чином позитивний . Ми якраз і є такі машини. «Так, але чи може мислити артефакт, машина, зроблена людиною?» У припущенні, що можливо штучно призвести махай-ну з нервовою системою, нейронами, що володіють аксонами і дендритами, і з усім прбчім, достатньою мірою схожими на нашу неррную систему, наші нейрони н т. д., відповідь на Це питання видається знову ж тривіально позитивним. Якщо ви в змозі точно продублювати причини, то ви в змозі продублювати і слідства. І насправді, можливо, бути може, продукувати свідомість, интенциональность і все таке інше, використовуючи які-то інші хімічні принципи, ніж ті, що реалізовані в людях. Це, як я сказав, питання емпіричний. «Добре, ну а чи може мислити цифровий комп'ютер?» Якщо під «цифровим комп'ютером» ми розуміємо будь-який предмет, що має такий рівень опису, на якому його можна коректно описати як інстанціацій комп'ютерної програшш, то відповідь, зрозуміло, знову ж позитивний, бо ми суть інстанціацій якого завгодно числа комп'ютерних програм і ми можемо мислити. «Але чи може який-небудь предмет мислити, розуміти і так далі тільки в силу того, що цей предмет - комп'ютер з відповідною програмою? Чи може властивість інстанціірованія програми - підходящої програми, звичайно, - бути саме по собі достатньою умовою розуміння? » Ось це, по-моєму, хороший питання, хоча зазвичай його плутають з яким-небудь з тих питань, що наведені вище, і відповідь на нього від'ємний. «Але чому?» Тому що маніпуляція формальними символами сама по собі не має нікакойінтенціональностью; вона позбавлена сенсу; вона навіть не є маніпуляцією символами, бо ці символи нічого НЕ символізують. Мета прикладу з китайською кімнатою полягала в тому, щоб допитатися показати це, показавши, що як тільки ми поміщаємо щось в систему, яка насправді володіє интенциональностью (чоло-вік), і програмуємо цю систему формальної програмою, то ви бачите, що ця формальна програма не несе ніякої додаткової інтенціональності. Вона нічого не додає, наприклад, до здатності людини розуміти китайську мову. Саме ця риса AI - розходження між програмою і реалізацією, яка здавалася такою привабливою, - виявляється фатальною для претензії на те, що моделювання може стати дублюванням. Різниця між програмою і її реалізацією в апаратному пристрої комп'ютера, мабуть, паралельно відмінності між рівнем ментальних операцій і рівнем мозкових операцій. І якби ми могли оцісать рівень ментальних операцій як формальну програму, то, видається, ми могли б описати суть свідомості, не займаючись інтроспективної психологією або нейрофізіологією мозку. Але рівняння «свідомість відноситься до мозку так само, як програма до апаратного пристрою комп'ютера» рушиться в декількох пунктах, у тому числі в наступних трьох: по-перше, з відмінності між програмою і її реалізацією слід , що одна і та ж програма могла б володіти самими божевільними реалізаціями, яким непритаманні форма інтенціональності. Візенбаум (Wiezenbaum 1976: СЬ. 2), наприклад, докладно розповідає, як побудувати комп'ютер, використовуючи рулон туалетного паперу і жменю камінців. Точно так само програму, яка розуміє китайські оповідання, можна запрограмувати в послідовність шлангів, в безліч вітряних млинів або в людини, що говорить лише англійською мовою, - і тоді ні перша, ні друга, ні третя не стануть розуміти китайську мову. Почати з того, що камені, туалетний папір, вітер і шланги - не ті речі, що можуть бути наділені інтенціональностио (нею можуть бути наділені лише предмети, що володіють тими ж каузальними здібностями, що й мозок), і хоча носій англійської мови зроблений з відповідного для інтенціональності матеріалу, неважко бачити, що він не набуває ніякої додаткової інтенціональності, вивчивши напам'ять програму, оскільки виучіваніе її напам'ять не навчить його КИТАЙСЬКУ; по-друге, програма чисто формальна, а інтенціональіие стану неформальні в цьому сенсі. Вони визначені в термінах їх змісту, а не форми. Переконання, що йде дощ, наприклад, визначено не як якась форма, а як певне ментальне зміст з умовами виконання, напрямком відповідності (СР Searle 1979а) і тому подібним. По суті, переконання як таке навіть і не має форми в цьому синтаксичному сенсі, бо одного й того ж переконання можна надати невизначено велику кількість різних синтаксичних виразів у різних мовних системах; по-третє, як я зазначив вище, ментальні стану і події суть в буквальному сенсі продукти функціонування мозку, але програма не є продукт роботи комп'ютера в цьому ж сенсі. «Добре, але якщо програми жодним чином не конституюють ментальні процеси, то чому настільки багато думали навпаки? Це ж треба хоч якось пояснити ». Насправді я не знаю відповіді на це питання. Ідея, що комп'ютерні моделі можуть бути самими реальними речами, мала б здатися підозрілою - насамперед тому, що комп'ютер, у всякому разі, не обмежується моделюванням ментальних операцій. Нікому ж не приходить в голову, що комп'ютерне моделювання пожежної тривоги може спалити дотла сусідні будинки або що комп'ютерне моделювання зливи змусить нас всіх промокнути. Так чому ж комусь має прийти в голову, що комп'ютерна модель розуміння насправді щось розуміє? Іноді кажуть, що змусити комп'ютер відчути біль або закохатися - жахливо важке завдання, ио любов і біль ні важче, ні легше, ніж пізнання або щось ще Все, що вам потрібно для моделювання - це підходящий вхід, відповідний вихід і між ними підходяща програма, яка перетворює першого в друге. Що б не робив комп'ютер, нічого, крім цього, у нього немає. Сплутати моделювання чогось з дублюванням цього самого - помилка одного і того ж роду, чи йде мова про моделі болю, любові, пізнання, пожежі або зливи. І все ж є кілька підстав, чому мало здаватися, - а багатьом людям, можливо, і зараз здається, - що АІ яким-то чином відтворює і тим самим пояснює ментальні феномени, і я вважаю , що нам не вдасться усунути ці ілюзії, поки ми повністю не виявимо підстави, що їх породжують. Перше (і, бути може, найважливіше) підстава - це плутанина з поняттям «обробка інформації»: багато, що займаються когнітивної наукою, вважають, що мозок людини з його свідомістю зайнятий чимось таким, що називається «обробкою інформації», і точно так же комп'ютер зі своєю програмою зайнятий обробкою інформації; пожежі же і зливи, з іншого боку, не займаються обробкою інформації. Таким чином, хоча комп'ютер може моделювати формальні сторони якого завгодно процесу, ои стоїть в якомусь особливому відношенні до свідомості і мозку, бо коли комп'ютер схожим чином запрограмований в ідеалі тією ж програмою, що й мозок, то обробка інформації тотожна в обох випадках, і така обробка інформації та є насправді сутність ментального. Але з цим аріументом біда в тому, що він грунтується на двозначності поняття «Інформація». У тому сенсі, в якому люди «обробляють інформацію», коли вони розмірковують, Скажімо, над арифметичними завданнями або коли вони читають оповідання та відповідають на питання »! про них, - у цьому сенсі програмований комп'ютер зовсім не займається ніякої «обробкою інформації». Замість цього він маніпулює формальними символами. Той факт, що програміст і інтерпретатор комп'ютерного виходу використовують символи для заміщення деяких об'єктів у світі, - ие має ніякого відношення до самого комп'ютера. Комп'ютер, повторимо, має синтаксис, але позбавлений семантики. Так, якщо ви надрукуєте комп'ютера: «Скільки буде 2 х 2?», То він вам надрукує «4». Але він ие має жодного уявлення про те, що «4» означає 4 илн що «4» взагалі означає що б то не було. І справа не в тому, що йому не вистачає небудь второпоряд-кової інформації про інтерпретацію його первопорядкових символів, а в тому, що його первопорядковой символи позбавлені всякої інтерпретації, поки мова йде про комп'ютер. Все, що є у комп'ютера, - це символи і ще раз символи. По-третє, цей залишковий операціоіалізм з'єднується із залишковою формою дуалізму; по суті, сильний AI має сенс лише в тому випадку, якщо приймається дуалістичне допущення про те, що там, де справа йде про свідомість, мозок не має значення. У сильному AI (а також і в функционализме) значення мають програми, а програми незалежні від їх реалізацій в машинах; по суті, оскільки йдеться про AI, одна і та ж програма могла б бути реалізована електронною машиною, картезіанської ментальної субстанцією або гегельянським світовим духом. Найдивовижніше відкриття, які я зробив, обговорюючи ці питання, полягає в тому, що багато дослідників AI були прямо-таки шоковані моєю ідеєю, що дійсні феномени людської свідомості можуть залежати від дійсних фізико-хімічних властивостей дійсних людських мізків. Hp. Якщо ви трохи подумаєте про це, то зрозумієте, що мені не слід було дивуватися, бо задум сильного AI має хоч якісь шанси на успіх лише, якщо ви приймаєте деяку форму дуалізму. Задум полягає в тому, щоб відтворити і пояснити ментальне, конструюючи програми, але ви можете здійснити цей задум лише в тому випадку, якщо свідомість не тільки концептуально, а й емпірично не залежить від мозку, бо програма абсолютно не залежить від тієї чи іншої реалізації. Ви можете сподіватися відтворити ментальне, конструюючи і запускаючи програми, лише в тому випадку, якщо ви вважаєте, що свідомість віддільно від мозку як концептуально, так і емпірично (сильна форма дуалізму), бо програми повинні бути незалежні від мозку, а також і від будь-яких конкретних форм інстанціацій. Якщо ментальні операції складаються в обчислювальних операціях над формальними символами, то, отже, вони ніяким цікавим чином не пов'язані з мозком; єдиний зв'язок полягала б у тому, що мозку трапилося бути одним з невизначено великого числа типів машин, здатних інстанцііровать дану програму. Ця форма дуалізму не збігається з традиційною картезіанської разновідность89}, яка каже, що є субстанції двох родів, але це все ж картезіанський дуалізм у тому сенсі, що він наполягає на тому, що те, що є у свідомості специфічно ментального, не має внутрішньої зв'язку з дійсними властивостями мозку. Цей дуалізм, який лежить в основі AI, маскується тим, що література по AI містить численні іівек- тиви проти «дуалізму»; чого ці автори, мабуть, не усвідомлюють, так це того, що передумовою їхньої позиції є якась сильна версія дуалізму. «Чи може машина мислити?» Я-то вважаю, що тільки машини і можуть мислити, і справді тільки дуже особливі види машин, а саме мізки і машини, що володіють тими ж каузальними здібностями, що й мізки. І це найголовніше підставу, чому сильний ЛІ так мало розповів нам про мислення, бо йому нічого сказати нам про машини. За своїм власним визначенням, він стосується програм, а програми - не суть машини. Чим би ще ії була интенциональность, вона біологічний феномен, і її буття настільки ж ймовірно, наскільки воно каузально залежно від таких конкретних біохімічних особливостей її походження, як лактація, фотосинтез і будь-які інші біологічні феномени. Нікому не прийде в голову, що ми можемо виробляти молоко і цукор, запустивши комп'ютерну модель формальних послідовностей лактації і фотосинтезу, але коли заходить мова про свідомість, багато людей наполегливо хочуть вірити в таке диво з причини свого глибокого і міцно вкоріненого дуалізму: свідомість, яке вони мають на увазі, залежить від формальних процесів і не залежить від абсолютно конкретних матеріальних причин - на відміну від молока і цукру. На захист даного дуалізму висловлюється сподівання, що мозок - це цифровий комп'ютер (до речі, перші комп'ютери часто називали «електронними мізками»). Однак це не допоможе. Звичайно, мозок - цифровий комп'ютер. Раз будь-який предмет - цифровий комп'ютер, чому б мозку не бути ним. Але вся справа в тому, Що каузальна здатність мозку продукувати интенциональность не може полягати в тому, що мозок ікстанціірует якусь комп'ютерну програму, бо візьміть будь-яку програму, і знайдеться такий предмет, який інстанціірует цю програму, але все ж не має жодних ментальних станів. У чому б не полягала продукування мозком інтенціональності, воно не може полягати в інстанціірованіі якоїсь програми, бо ніяка програма сама по собі недостатня для інтенціональності
|
||
« Попередня | Наступна » | |
|
||
Інформація, релевантна "в. ВІДПОВІДЬ ВІД КІЛЬКОХ житлами (Берклі)" |
||
|