Существует пласт опасений, что искусственный интеллект способен стать угрозой существования человечества. При этом речь идет как о сценариях уничтожения в «пепле ядерной войны», так и «серой ассимиляции», что показал фильм «Превосходство». Но, согласно с новым исследованием, большие языковые модели (LLM) могут только следовать инструкциям, не могут самостоятельно развивать новые навыки и по своей сути «контролируемы, предсказуемы и безопасны», что звучит как хорошая новость для нас, мешков с мясом.
Чем больше пишу статей про
Базовый сценарий, когда искусственный интеллект угрожает человечеству
Президент Соединенных Штатов объявляет общественности, что оборона страны передана новой системе искусственного интеллекта, которая контролирует ядерный арсенал. Одна команда и война становится ненужной благодаря сверхразумной машине, неспособной на ошибку, способной обучаться любым новым навыкам, которые ей требуются для поддержания мира, и которая становится все мощнее и осознаннее с каждой минутой. Она эффективна до непогрешимости.
Пока президент благодарит команду ученых, которые разработали ИИ, и предлагает тост за мир во всем мире, ИИ внезапно начинает отправлять текстовые сообщения. Он выдвигает требования, за которыми следуют угрозы уничтожить крупный город, если люди не начнут повиноваться.
Это один из сценариев о развитии ИИ за последние годы. Если мы ничего не сделаем, если еще не слишком поздно, ИИ спонтанно разовьется, станет осознанным и сверхразумным и даст понять, что Homo Sapiens низведен до уровня домашних животных. Причем такой сценарий реален для искусственного интеллекта, выращенного из частей человеческого мозга, закрепленных на чипах.
Корни страхов перед искусственным интеллектом
Странно, что притча выше берет начало из 1970 года. Это сюжет научно-фантастического триллера «Колосс: Проект Форбина». В нем рассказывается о суперкомпьютере, который с удручающей легкостью завоевывает мир. Эта идея существует с тех пор, как в 1940-х годах были построены первые настоящие компьютеры, и этот страх снова и снова развивали в книгах, фильмах и видеоиграх.
Хотя, учитывая что нейросети используют для того, чтобы стандартизировать улыбки обслуживающего персонала в магазинах, проблема может возникнуть с другой стороны.
Если взять профильные журналы по программированию, то они говорили о компьютерах и опасности захвата власти с их стороны еще с 1961 года. За последние шесть десятилетий эксперты неоднократно предсказывали, что компьютеры продемонстрируют интеллект человеческого уровня в течение «следующих пяти лет» и намного превзойдут его «в течение 10 лет».
Искусственный интеллект как устаревшая технология?
Начнем с того, что искусственный интеллект существует по крайней мере с 1960-х годов и используется во многих областях на протяжении десятилетий. Мы склонны думать о технологии как о «новой», потому что только недавно системы ИИ, обрабатывающие языковые модели и изображения, стали широко доступны. А для их работы возводятся гигантские суперкомпьютеры, имитирующие работу человеческого мозга. Это также примеры ИИ, которые более понятны большинству людей, чем шахматные движки, автономные системы полета или диагностические алгоритмы.
Такие «акселераторы перебора» вселяют страх безработицы во многих людей, области ответственности которых, казалось, напрочь лишены угрозы автоматизации.
Однако главный вопрос все же звучит как: представляет ли Искусственный Интеллект экзистенциальную угрозу? После более чем полувека ложных тревог мы наконец-то окажемся под каблуком современного Колосса или HAL 9000? А может нас подключат к Матрице?
По мнению исследователей из Университета Бата и Технического университета Дармштадта, ответ — нет.
Исследование вероятной угрозы со стороны ИИ
В исследовании, опубликованном в рамках 62-го ежегодного заседания Ассоциации компьютерной лингвистики (ACL 2024), говорится, что ИИ, и в частности LLM, по своей сути управляемы, предсказуемы и безопасны. Три абзаца ниже – это прямая речь соавтора исследования. Доктор Хариш Тайяр Мадабуши, специалист по информатике из Университета Бата.
Господствующее мнение о том, что этот тип ИИ (LLM) представляет угрозу человечеству, препятствует широкому внедрению и развитию этих технологий, а также отвлекает внимание от реальных проблем, требующих нашего внимания.
Были опасения, что по мере того, как модели будут становиться все больше и масштабнее, они смогут решать новые проблемы, которые мы в настоящее время не можем предсказать, что создает угрозу того, что эти более крупные модели могут приобрести опасные способности, включая способность к рассуждению и планированию. Это вызвало много дискуссий — например, на саммите по безопасности ИИ в прошлом году в Блетчли-парке. Но наше исследование показывает, что опасения, что модель эволюционирует и сделает что-то совершенно неожиданное, инновационное и потенциально опасное – необоснованны.
Обеспокоенность по поводу экзистенциальной угрозы, высказывают не только неспециалисты, ее высказывают и некоторые ведущие исследователи искусственного интеллекта по всему миру. Но это скорее данность нашего времени.
По материалам исследования о безопасности нейросетей, искусственного интеллекта и LLM
Если внимательно рассмотреть эти модели, проверив их способность выполнять задания, с которыми они раньше не сталкивались, то окажется, что LLM очень хорошо следуют инструкциям и демонстрируют знание языков. Они могут делать это даже тогда, когда им показывают всего несколько примеров, например, отвечая на вопросы о социальных ситуациях.
Чего они не могут, так это выйти за рамки этих инструкций или освоить новые навыки без явных инструкций. LLM могут демонстрировать странное поведение, но его всегда можно отследить до особенностей кода или заданных инструкций. Другими словами, они не могут эволюционировать во что-то большее, чем то, как они были созданы, так что никакого Deus Ex Machina.
Однако команда подчеркивает, что это не означает, что ИИ не представляет никакой угрозы. Эти системы уже обладают замечательными возможностями и станут более сложными в самом ближайшем будущем. Основная и ближайшая группа риска от нейросетей – это экспоненциальный рост постмодернистского контента. У нейросетей есть пугающий потенциал манипулировать информацией, создавать фейковые новости, скамить людей по дипфейкам, что уже главнее погоды в доме, предоставлять ложь даже без изначального намерения, злоупотреблять нейросетями как дешевым решением скрывать правду.
Истинные риски
Опасность, как всегда, исходит не от машин, а от людей, которые их программируют и контролируют. Будь то по злому умыслу или по некомпетентности, нам нужно беспокоиться не о компьютерах. А о людях, стоящих за ними.
Больше странных материалов про
Автор: MisterClever