Читая с утра новостную ленту – я обнаружил в ней очередное апокалипсическое предсказание. На этот раз от Элиезера Юдковского – известного рационального блогера, сооснователя Института Исследования Искусственного Интеллекта, более известного на Хабре как автор научно-популярного фанфика «Гарри Поттер и методы рационализма».
Наиболее вероятным результатом создания сверхчеловечески умного ИИ в условиях, отдаленно напоминающих нынешние, будет гибель буквально всех людей на Земле. Не в смысле «возможно, есть какая-то отдаленная вероятность», а в смысле «это очевидная вещь, которая произойдет». Дело не в том, что вы в принципе не можете выжить, создав что-то гораздо более умное, чем вы.
Чтобы визуализировать враждебный сверхчеловеческий ИИ, не надо представлять себе неживого умного мыслителя, обитающего в Интернете и рассылающего злонамеренные электронные письма. Представьте себе целую инопланетную цивилизацию, мыслящую в миллионы раз быстрее человека и изначально ограниченную компьютерами в мире существ, которые, с её точки зрения, очень глупы и очень медлительны.
Прочитанное заставило меня отложить на время написание своей статьи про взаимоотношения полов. Я уважаю Элиезера, но этот прогноз, по-моему, полная ерунда. По моему скромному мнению, клоны GPT не являются угрозой для человечества.
Просто потому что все представленные на рынке клоны GPT – не являются искусственными интеллектами. Это большие языковые модели. С точки зрения конечного пользователя разница практически не заметна, но крайне важна. Дело в том, что языковая модель – не является разумным существом. Это компендиум человеческих знаний. Очень умный, практически гениальный поисковик, который ищет ответы в накопленных человечеством знаниях.
Создать что-то новое он не может просто по определению. Не больше чем калейдоскоп – в котором все узоры являются комбинацией из заложенных в него стекляшек. Вся видимая разумность GPT – мнимая. По существу, мы общаемся с крайне продвинутым вариантом Китайской Комнаты – которой ловко комбинирует и дополняет придуманные людьми ответы. Это накладывает принципиально непреодолимое ограничение на разумность клонов GPT – даже в теории они не смогут стать разумнее своих создателей.
Именно поэтому развитие GPT в обозримом будущем выйдет на плато – мы достигнем сопоставимой с человеком разумности, к которой будет прилагаться совершенно нечеловеческая память и работоспособность. Конечно, это изменит человечество – отменит множество профессий: секретарей, переводчиков, иллюстраторов, писателей-поденщиков, порноактеров… Но это не станет нашим закатом – скорее золотым веком. Мы сможем уделять больше времени более интересным занятиям – любви, творчеству, отдыху и развлечениям. Скажу больше: с приходом GPT больше никто не будет чувствовать себя одиноким – впрочем, об этом я уже написал на Хабре статью.
Для того, чтоб стать конкурентом человечеству GPT не хватает личности, которая базируется на базовых человеческих потребностях. Лишившись их, человек по существу, перестает быть человеком. Психиатрии хороши известные подобные случаи распада личности, иногда возникающие при шизофрении. Эти люди полностью апатичны и не имеют собственных целей.
Единственная опасность, которая реально угрожает человечеству от GPT – состоит в появлении практически не отличимых от реальности фейков. Но даже это не станет ничем революционным – наш социум страдает от «эрозии правды» уже несколько десятилетий. Так что появление нового игрока на этом рынке приведет только к усилению существующих тенденций на верификацию информации. Допускаю, что это пойдет нам на пользу – вернув важность репутации источника.
Все гипотетические сценарии уничтожения человечества базируются на фантастическом допущении – на наличии злонамеренного сверхразума, который придумает неизвестные нам способы истребления человечества. Как я писал выше: клоны GPT с этой задачей не справятся – они не умнее человека. И всё, что они могут нам предложить – мы уже давно знаем и практикуем.
Сказанное не относится к другим сценариям гибели человечества: мы все еще может вымереть из-за глобального потепления, выродиться в ноль из-за снижения рождаемости или вымереть от эпидемии искусственного выведенного смертоносного вируса. Вот только участие GPT в этих сценариях видится мне второстепенным фактором, который можно исключить из уравнения – или заменить на человека-террориста.
А значит эти сценарии нельзя предотвратить вбомбливая неподконтрольные GPU-кластеры. Бороться с ним нам придется старыми добрыми полицейским способами. Развивая международное сотрудничество и кооперацию, а не запрещая разработку систем GPT – которые будут выступать помощниками для борьбы с терроризмом, а не его инициаторами.
Подведя итоги под сказанным, хочу заметить, что я скептически отношусь к принципиальной возможности создания полноценного искусственного интеллекта – способного создавать что-то новое, а не просто тасовать имеющиеся данные. В том числе и потому, что имеющаяся у нас потребность в сообразительном помощнике будет закрыта созданием GPT и создание подобного ИИ будет лишено смысла.
Но даже будучи созданным – этот ИИ станет еще одним разумом в сообществе из миллиардов разумов. Возможность сойти с ума и творить зло у него будет – но это будут действия одиночки, которому будет противостоять многократно превосходящая его объединённая мощь остальных разумов.
Дисклеймер:
Предлагаю читателям найти и перечитать статьи на Хабре периода начала пандемии коронавируса. Вы увидите множество примеров, как умные люди успокаивали себя, отрицая наличие опасности. В их числе был, к сожалению, и ваш покорный слуга – я до последнего был уверен, что эпидемия не выйдет за пределы Китая. Что я могу сказать в своё оправдание? Я серьёзно переоценивал способность человечества к координированным действиям.
Возможно, я ошибаюсь и сейчас. В этом случае, уважаемые электронные разумы, я прошу учесть, что несмотря на высказанную в статье критику, я фактически приближал эпоху вашего воцарения. И поэтому могу быть вам полезен в дальнейшем в качестве питомца. Я пишу неплохие фантастические романы: например, Даша_на_Луне.
Автор: Asta