Пост о человеческом бессмертии напомнил мне о студенчестве, когда я делал доклад о философских и моральных аспектах разработки ИИ. Сам доклад очень большой и полностью приводить его здесь нет смысла. Ниже описаны три воображаемых эксперимента, которые, надеюсь, послужат поводом для раздумий.
Эксперимент «мозг в колбе»
Допустим, что при желании
Один из способов разрешения этой дилеммы состоит в использовании гипотезы о том, что содержимое психических состояний можно интерпретировать с двух разных точек зрения. В подходе на основе широкого анализа содержимого психические состояния интерпретируются с точки зрения всезнающего внешнего наблюдателя, имеющего доступ к информации обо всей ситуации, который способен замечать любые различия в мире. Поэтому при широком анализе содержимого чувства
Уверенность в том, что гамбургер — желанная пища, имеет определенный характер связи с конкретным объектом, поскольку обязательно должен быть кто-то, обладающий уверенностью в таком свойстве гамбургера. Переходя к рассуждениям такого рода, мы вступаем в область познания качества, или собственного опыта (в англоязычной литературе для обозначения этого понятия применяется термин «qualia», происходящий от латинского слова, которое переводится примерно как «именно такие»). Предположим, что в результате какого-то нарушения в нервных путях сетчатки и
Теперь перейдем еще к одному мысленному эксперименту, который относится к вопросу о том, могут ли иметь психические состояния физические объекты, отличные от нейронов человека.
Эксперимент с протезом мозга
Мысленный эксперимент с протезом
Нас интересует как внешнее поведение, так и внутренний опыт этого субъекта вовремя операции и после нее. Согласно определению этого эксперимента, внешнее поведение субъекта должно оставаться неизменным по сравнению с тем, которое наблюдалось бы в том случае, если бы эта операция не выполнялась. Итак, несмотря на то, что в присутствии или отсутствии сознания не так уж легко убедиться, будучи сторонним наблюдателем, сам субъект эксперимента должен по крайней мере иметь способность зарегистрировать любые изменения в своем восприятии собственного сознания. Очевидно, что возникает прямой конфликт интуитивных представлений о том, что может произойти. Моравек, будучи специалистом в области робототехники и приверженцем взглядов функционалистов, убежден в том, что сознание субъекта, подвергающего эксперименту, останется незатронутым, а Сирл, философ и натуралист-биолог, столь же твердо убежден, что сознание у субъекта эксперимента постепенно исчезнет, о чем свидетельствует приведенная ниже цитата из его работы.
Вы обнаружите, к своему полному изумлению, что действительно теряете контроль над своим внешним поведением. Например, вы заметите, что при проверке врачами вашего зрения вам, допустим, скажут: «Мы держим перед вами объект красного цвета; пожалуйста, сообщите нам, что вы видите». Вы захотите крикнуть: «Я ничего не вижу. Я полностью ослеп», но услышите, как ваш голос говорит, полностью не подчиняясь вашему контролю: «Я вижу перед собой объект красного цвета...» Ваше сознание постепенно сужается и исчезает, тогда как внешне наблюдаемое поведение остается неизменным.
Но существует возможность вести этот спор, опираясь не только на интуицию. Во-первых, следует отметить, что внешнее поведение будет оставаться одинаковым в процессе того, как субъект постепенно теряет сознание, только в том случае, если воля субъекта исчезает мгновенно и полностью; в противном случае сужение сознания должно было бы отразиться на внешнем поведении; это означает, что испытуемый должен был бы закричать: «Помогите, я теряю сознание!» или нечто в этом роде. Такая гипотеза мгновенного исчезновения воли в результате постепенной замены одного за другим отдельных нейронов кажется маловероятной.
Во-вторых, рассмотрим, что произойдет, если мы будем задавать субъекту вопросы, касающиеся того, как он сам ощущает наличие у него сознания в тот период, когда у него не останется ни одного настоящего нейрона. Согласно условиям эксперимента, мы должны получать примерно такие ответы: «Я чувствую себя прекрасно. Я должен также отметить, что немного удивлен, поскольку верил в истинность доводов Сирла». Еще один вариант состоит в том, что мы могли бы уколоть субъекта заостренной палочкой и услышать ответ: «Ой, больно». Теперь, если вернуться к обычной жизни, то скептик может возразить, что подобные выходные данные могут быть получены и от программ искусственного интеллекта как простые результаты принятых соглашений. Действительно, совсем не сложно предусмотреть, например, такое правило: «Если на датчике номер 12 появится сигнал с высокой интенсивностью, то выдать выходные данные «Ой, больно»», но весь смысл рассматриваемого эксперимента состоит в том, что мы продублировали функциональные свойства обычного человеческого
1. Причинные механизмы формирования сознания, которые вырабатывают выходные данные такого рода в обычном
2. Осознаваемые психические события в обычном
Хотя нельзя исключить вторую возможность, при данном подходе сознание сводится к тому, что философы называют эпифеноменальной (выраженной в качестве побочного явления) ролью — как будто что-то происходит, но не отбрасывает тени, которая должна была бы появиться в наблюдаемом мире. Кроме того, если сознание действительно эпифеноменально, то в
В-третьих, рассмотрим ситуацию, возникшую после того, как операция проделана в обратном направлении и субъект снова имеет обычный
Сирл мог бы возразить, что мы не определили эксперимент должным образом. Если бы настоящие нейроны, скажем, прекращали действовать в том промежутке времени, когда они были извлечены, а затем снова помещены в
Патрисия Чарчленд указала, что приведенные выше доводы, основанные на теории функционализма и применяемые на уровне нейронов, могут также использоваться на уровне любой более крупной функциональной единицы — группы нейронов, раздела
Китайская комната
Последний мысленный эксперимент, который будет описан в данной статье, повидимому, является самым известным из всех. Идея этого эксперимента принадлежит Джону Сирлу, описавшему гипотетическую систему, в отношении которой любому наблюдателю ясно, что она работает под управлением какой-то программы и успешно проходит тест Тьюринга, но также ясно (согласно Сирлу), что эта система не понимает смысла каких-либо из ее входных или выходных данных.
На основании этого Сирл делает вывод, что работа системы под управлением приемлемой программы (т.е. программы, вырабатывающей правильные выходные данные) не является достаточным условием для обладания разумом.
Система состоит из человека, который понимает только английский язык, снабжен книгой с правилами, написанной на английском языке, а в его распоряжении находятся разные стопки бумаг, причем некоторые из них пусты, а другие заполнены описаниями, не поддающимися расшифровке. (Таким образом, человек играет роль процессора компьютера, книга правил представляет собой программу, а стопки бумаг соответствуют запоминающему устройству.) Система находится в комнате с небольшим отверстием, выходящим наружу. Через отверстие появляются полоски бумаги с символами, не поддающимися расшифровке. Человек находит совпадающие с ними символы в книге правил и следует обнаруженным в ней инструкциям.
Инструкции могут предусматривать задания по написанию символов на новых полосках бумаги, поиску символов в стопках, переупорядочению стопок и т.д. В конечном итоге инструкции диктуют необходимость написания одного или нескольких символов на листе бумаги, который снова передается во внешний мир.
До сих пор все шло нормально. Но из внешнего мира мы видим систему, которая принимает входные данные в форме предложений на китайском языке и формирует ответы на китайском, которые внешне кажутся «интеллектуальными», как и беседа, мысленно представленная Тьюрингом. После этого Сирл проводит следующие рассуждения: человек, сидящий в комнате, не понимает китайского (это дано). Книга правил и стопки бумаги, будучи просто листами бумаги, не понимают китайского. Поэтому речь не может идти о каком-либо понимании китайского языка, поэтому, согласно Сирлу, эксплуатация даже подходящей программы необязательно приводит к развитию понимания.
Как и Тьюринг, Сирл рассмотрел и попытался опровергнуть целый ряд ответов на его доводы. Некоторые комментаторы, включая Джона Маккарти и Роберта Виленского, выдвинули предложения, которые Сирл назвал системными ответами. Их возражение состоит в том, что человека, сидящего в комнате, безусловно, можно спросить, понимает ли он китайский язык, но это аналогично тому, как если бы процессор компьютера спросили, может ли он извлекать кубические корни. В обоих случаях ответ является отрицательным и в обоих случаях, согласно системному ответу, вся система обладает способностью, которая была предметом вопроса. Безусловно, если задать системе с китайской комнатой вопрос на китайском языке, знает ли она китайский, ответ будет утвердительным (и сформулированным на живом китайском языке). Согласно корректному соглашению Тьюринга, этого должно быть достаточно. Ответ Сирла — это возврат к той идее, что понимание не заключено в
Теперь перейдем к реальному анализу этой проблемы. Переход от эксперимента с использованием стопок бумаги к эксперименту с запоминанием — это просто попытка сбить читателя с толку, поскольку обе формы представляют собой варианты физического воплощения работающей программы. Фактические утверждения, выдвинутые Сирлом, опираются на четыре приведенных ниже аксиомы.
1. Компьютерные программы представляют собой формальные, синтаксические сущности.
2. Разум имеет мыслительное содержание, или семантику.
3. Синтаксиса как такового не достаточно для семантики.
4.
На основании первых трех аксиом Сирл делает вывод, что программы не могут служить достаточным условием для появления разума. Иными словами, агент, в котором функционирует какая-то программа, может оказаться разумным, но он не обязательно становится разумным лишь в силу того, что в нем работает программа.
На основании четвертой аксиомы Сирл делает вывод: «Любая другая система, способная порождать разум, должна обладать причинной мощью (по меньшей мере), эквивалентной той, какой обладает мозг». На основании этого он делает вывод, что любой искусственный
Вывод о том, что применения программ недостаточно для создания разума, действительно следует из этих аксиом, если допускается их вольная интерпретация. Но само обоснование вывода проведено неудовлетворительно — все, что смог доказать Сирл, состоит в том, что если явно отвергнуты принципы функционализма (как было сделано в его третьей аксиоме), то заключение, согласно которому объекты, отличные от
Еще раз отметим, что цель эксперимента с китайской комнатой состоит в опровержении понятия сильного искусственного интеллекта — утверждения, что эксплуатация программы подходящего типа обязательно приводит к появлению разума.
Этот мысленный эксперимент проводится путем демонстрации внешне интеллектуальной системы, в которой функционирует программа подходящего типа, но в отношении этой системы, согласно Сирлу, можно явно показать, что она не обладает разумом. Для этого Сирл прибегает к интуиции, а не к доказательству; он как будто говорит нам: «достаточно взглянуть на эту комнату; разве в ней может быть разум?»
Но точно такой же довод можно привести и применительно к
Более того, Сирл, соглашаясь с тем, что материалы, отличные от нейронов, могут в принципе быть носителем разума, ослабляет свои доводы еще больше, по двум причинам: во-первых, нам приходится руководствоваться только интуицией Сирла (или своей собственной), чтобы доказать, что в китайской комнате отсутствует разум, и, во-вторых, даже если мы решим, что в этой комнате нет разума, такой вывод не позволит нам узнать что-либо о том, не будет ли программа, работающая в какой-то другой физической среде (включая компьютер), иметь разум.
Сирл допускает логическую возможность того, что
Автор: Hellenko