Новый проект OpenAI в области искусственного интеллекта, получивший кодовое название Orion, столкнулся с множеством проблем. Он отстает от графика и требует огромных затрат. Неясно, когда и будет ли он работать. Возможно, в мире недостаточно данных, чтобы сделать его достаточно умным.
Дисклеймер: это вольный перевод колонки издания The Wall Street Journal, которую написал журналист Том Дотан. Перевод подготовила редакция «Технократии». Чтобы не пропустить анонс новых материалов подпишитесь на «Голос Технократии» — мы регулярно рассказываем о новостях про AI, LLM и RAG, а также делимся полезными мастридами и актуальными событиями.
Обсудить пилот или задать вопрос об LLM можно здесь.
Проект, официально названный GPT-5 с кодовым именем Orion, разрабатывается уже более 18 месяцев и должен стать значительным шагом вперед в технологии, которая лежит в основе ChatGPT. Ближайший партнер и крупнейший инвестор OpenAI, компания Microsoft, ожидала увидеть новую модель примерно в середине 2024 года, сообщают осведомленные источники.
OpenAI провела как минимум две крупных тренировочных сессии, каждая из которых требует месяцев обработки огромных объемов данных с целью сделать Orion ещё умнее. Однако каждый раз возникали новые проблемы, и программное обеспечение не достигло ожидаемых результатов, говорят люди, близкие к проекту.
По их словам, Orion показывает лучшие результаты по сравнению с текущими решениями OpenAI, но всё ещё не достиг достаточного прогресса, чтобы оправдать колоссальные затраты на его поддержку. Оценки показывают, что шестимесячная тренировка может обойтись примерно в полмиллиарда долларов только по вычислительным затратам.
OpenAI и генеральный директор Сэм Альтман произвели фурор в Кремниевой долине, запустив ChatGPT два года назад. ИИ обещал постоянно демонстрировать драматические улучшения и проникать почти во все аспекты нашей жизни. Аналитики прогнозируют, что технологические гиганты могут потратить $1 триллион на проекты ИИ в ближайшие годы.
Большая часть этих ожиданий ложится на OpenAI, компанию, стоящую у истоков бума ИИ.
Оценка OpenAI в 157 миллиардов долларов, данная инвесторами в октябре, в значительной степени основана на предсказании Альтмана, что GPT-5 станет значительным шагом вперед во многих областях и задачах.
GPT-5 должен сделать новые научные открытия, а также выполнять рутинные человеческие задачи, такие как бронирование встреч или рейсов. Исследователи надеются, что он будет допускать меньше ошибок, чем современные системы ИИ, или по крайней мере иметь сомнения — что является вызовом для текущих моделей, которые могут производить ошибки с кажущейся уверенностью - галлюцинации.
Чат-боты ИИ работают на основе технологии LLM, большой языковой модели. Потребители, бизнес и правительства уже полагаются на них для всего: от написания кода до улучшения маркетинговых текстов и планирования мероприятий. Модель OpenAI GPT-4 - это четвертая LLM, разработанная компанией с момента ее основания в 2015 году.
Пока GPT-4 ведет себя как умный старшеклассник, будущий GPT-5 будет эффективно иметь степень по некоторым задачам, заявил бывший руководитель OpenAI. В этом году Альтман сказал студентам на лекции в Стэнфордском университете, что OpenAI может с «высокой степенью научной уверенности» утверждать, что GPT-5 будет намного умнее текущей модели.
Нет установленных критериев для определения, когда модель стала достаточно умной, чтобы быть названой GPT-5. OpenAI может тестировать свои LLM в областях, таких как математика и программирование. Решение о том, достаточно ли умна модель, чтобы быть названа GPT-5, принимается руководителями компании в основном на основе интуиции или, как говорят многие технологи "ощущений".
OpenAI и Microsoft отказались комментировать эту статью. В ноябре Альтман заявил, что стартап не выпустит ничего под названием GPT-5 в 2024 году.
Начало работы над ChatGPT-5
С момента выхода GPT-4 в марте 2023 года OpenAI работает над GPT-5. Исследователи ИИ утверждают, что разработка LLM-систем — это столько же искусство, сколько и наука.
Модели тестируются во время тренировочных запусков, периода, когда модель может быть загружена триллионами фрагментов слов, известных как токены. Большой тренировочный запуск может занять несколько месяцев в дата-центре с десятками тысяч дорогих и востребованных компьютерных чипов, обычно от Nvidia.
Во время тренировочного запуска исследователи склоняются над своими компьютерами в течение нескольких недель или даже месяцев, пытаясь загрузить большую часть мировых знаний в систему ИИ с использованием одного из самых дорогих оборудований в удаленных дата-центрах.
Альтман заявил, что тренировка GPT-4 обошлась более чем в $100 миллионов. Ожидается, что будущие модели ИИ пробьют планку в $1 миллиард. Неудачный тренировочный запуск подобен взрыву космической ракеты сразу после запуска.
Исследователи пытаются минимизировать риск такого провала, проводя свои эксперименты в меньшем масштабе — делая пробный запуск перед основным.
Проблемы с ChatGPT-5 были с самого начала. В середине 2023 года OpenAI начала тренировочный запуск, который также был тестом для предложенного нового дизайна Orion. Однако процесс был медленным, что сигнализировало о том, что более крупный тренировочный запуск, вероятно, займет невероятно долгое время, что, в свою очередь, сделает его чрезвычайно дорогим. Результаты проекта, названного Arrakis, указывали на то, что создание GPT-5 не будет таким гладким, как надеялись.
Исследователи OpenAI решили внести некоторые технические изменения, чтобы усилить Orion. Они также пришли к выводу, что им нужны более разнообразные и высококачественные данные. Публичный интернет, по их мнению, не имел достаточного количества таких данных.
Модели ИИ становятся более способными, поглощая больше данных. Для LLM эти данные в основном поступают из книг, академических публикаций и других уважаемых источников. Этот материал помогает LLM выражать себя более четко и справляться с широким спектром задач.
Для своих предыдущих моделей OpenAI использовала данные, собранные из интернета: новостные статьи, посты в социальных сетях и научные работы.
Чтобы сделать Orion умнее, OpenAI нужно сделать его больше. Это означает, что ему нужно еще больше данных, но их недостаточно.
«Это становится очень дорого и трудно найти больше эквивалентных высококачественных данных», — сказал Ари Моркос, генеральный директор DatologyAI, стартапа, который разрабатывает инструменты для улучшения выбора данных. Моркос строит модели с меньшим, но более качественным набором данных, что, по его мнению, сделает современные системы ИИ более способными, чем стратегия, принятая всеми ведущими компаниями в области ИИ, такими как OpenAI.
Решение OpenAI заключалось в создании данных с нуля. Компания нанимает людей для написания нового программного кода или решения математических задач, чтобы Orion мог учиться на этом. Работники, некоторые из которых являются программистами и математиками, также делятся объяснениями своей работы с Orion.
Многие исследователи считают, что код, язык программирования, может помочь LLM решать проблемы, с которыми они еще не сталкивались.
Объяснение людьми своих мыслительных процессов углубляет ценность вновь созданных данных. Это значит больше языка для поглощения LLM; это также карта, по которой модель может решать подобные проблемы в будущем.
«Мы переносим человеческий интеллект из человеческих умов в машинные умы», — сказал Джонатан Сиддхарт, генеральный директор и соучредитель Turing, компании по инфраструктуре ИИ, которая работает с OpenAI, Meta* и другими.
В процессе обучения ИИ, по словам руководителей Turing, программиста могут попросить написать программу, которая эффективно решает сложную логическую задачу. Математика могут попросить рассчитать максимальную высоту пирамиды, построенной из миллиона баскетбольных мячей. Ответы — и, что более важно, способы их достижения — затем интегрируются в обучающие материалы для ИИ.
OpenAI сотрудничала с экспертами в теоретической физике, чтобы объяснить, как они подошли бы к решению самых сложных проблем в своей сфере. Это также может помочь Orion стать умнее.
Процесс идет очень медленно. GPT-4 была обучена на оценочных 13 триллионах токенов. Тысяче человек, пишущих по 5,000 слов в день, потребовались бы месяцы, чтобы создать миллиард токенов.
OpenAI также начала разрабатывать так называемые синтетические данные, или данные, созданные ИИ, чтобы помочь в обучении Orion. Обратная связь, при которой ИИ создает данные для ИИ, часто приводит к сбоям или нелепым ответам, как показали исследования.
Ученые из OpenAI считают, что могут избежать этих проблем, используя данные, генерируемые другой моделью ИИ компании, называемой o1.
И без того сложная задача OpenAI усугубляется внутренними проблемами и постоянными попытками конкурентов переманить ее ведущих исследователей, иногда предлагая им миллионы долларов.
В прошлом году Альтман был неожиданно уволен советом директоров OpenAI, и некоторые исследователи задавались вопросом, продолжит ли компания свою деятельность. Альтман был быстро восстановлен в должности генерального директора и приступил к реформированию структуры управления OpenAI.
В этом году более двух десятков ключевых руководителей, исследователей и давних сотрудников покинули OpenAI, включая соучредителя и главного научного сотрудника Илью Суцкевера и главного технического директора Миру Мурати. В прошлый четверг Алек Радфорд, широко уважаемый исследователь, который был ведущим автором нескольких научных статей OpenAI, объявил о своем уходе после примерно восьми лет работы в компании.
Перезагрузка
К началу 2024 года руководители начали ощущать давление. GPT-4 уже была годовалой, а конкуренты начали догонять. Новая LLM от Anthropic была оценена многими в отрасли как лучшая. Через несколько месяцев Google запустила самое вирусное приложение ИИ «NotebookLM».
Пока Orion застопорился, OpenAI начала разрабатывать другие проекты и приложения. Среди них были упрощенные версии GPT-4 и Sora, продукт, который может создавать видео с помощью ИИ.
Это привело к борьбе за ограниченные вычислительные ресурсы между командами, работающими над новыми продуктами, и исследователями Orion.
Конкуренция среди лабораторий ИИ стала настолько ожесточенной, что крупные технологические компании публикуют меньше статей о недавних открытиях или прорывах. Когда два года назад на рынок хлынули деньги, технологические компании начали рассматривать результаты этих исследований как коммерческие тайны, которые нужно охранять. Некоторые исследователи относятся к этому настолько серьезно, что не работают в самолетах, кофейнях или любых других местах, где кто-то может заглянуть им через плечо и увидеть их работу.
Этот секретный подход разочаровал многих давних исследователей ИИ, включая Яна Лекуна, главного специалиста по ИИ в Meta*. Лекун заявил, что работу OpenAI и Anthropic больше не следует рассматривать как исследование, а как «продвинутую разработку продукта».
«Если вы делаете это по коммерческому графику, это не называется исследованием», — сказал Лекун на полях недавней конференции по ИИ, где OpenAI имела минимальное присутствие.
В начале 2024 года OpenAI готовилась дать Orion еще один шанс, на этот раз вооружившись лучшими данными. Исследователи сделали несколько небольших тренировочных запусков в первые месяцы года, чтобы набраться уверенности.
К маю исследователи OpenAI решили, что готовы попытаться сделать еще один крупномасштабный тренировочный запуск для Orion, который, по их ожиданиям, должен был продлиться до ноября.
Когда тренировка началась, исследователи обнаружили проблему с данными: они не были такими разнообразными, как они думали, что могло ограничить то, сколькому Orion сможет научиться.
Проблема не была видна в меньших масштабах, и стала очевидной только после начала крупного тренировочного запуска. OpenAI потратила слишком много времени и денег, чтобы начинать все сначала.
Вместо этого исследователи спешно искали более широкий спектр данных для подачи модели в процессе тренировки. Неясно, оказалась ли эта стратегия успешной.
Проблемы Orion сигнализировали некоторым в OpenAI, что стратегия «больше значит лучше», которая привела к большинству их ранних успехов, исчерпала себя.
OpenAI не единственная компания, которая беспокоится о том, что прогресс застопорился. В отрасли бушуют дебаты о том, начал ли ИИ достигать потолка.
Илья Суцкевер, кофаундер новой компании по ИИ «Safe Superintelligence» или SSI, заявил на недавней конференции по ИИ, что эпоха максимальных данных закончилась. «Данные не растут, потому что у нас есть только один интернет, — сказал он аудитории исследователей, экспертов по политике и ученых.Можно даже сказать, что данные — это ископаемое топливо для ИИ». И это топливо начало иссякать.
Рассуждение
Рассуждения над трудностями с Orion привели исследователей OpenAI к новому подходу к созданию более умной LLM: рассуждения. Длительное «размышление» может позволить LLM решать сложные задачи, на которых они не были обучены, говорят исследователи.
За кулисами o1 от OpenAI предлагает несколько ответов на каждый вопрос и анализирует их, чтобы найти лучший. Он может выполнять более сложные задачи, такие как написание бизнес-плана или создание кроссворда, объясняя свои рассуждения, что помогает модели немного учиться на каждом ответе.
Исследователи из Apple недавно опубликовали статью, в которой утверждается, что модели рассуждений, включая версии o1, скорее всего, имитируют данные, которые они видели при обучении, а не решают новые задачи.
Исследователи Apple заявили, что обнаружили «катастрофическое снижение производительности», если вопросы изменялись, включая нерелевантные детали, — например, изменение математической задачи о киви, чтобы отметить, что некоторые фрукты меньше других.
В сентябре OpenAI запустила предварительный просмотр своей модели рассуждений o1 и выпустила полную версию o1 ранее в этом месяце. Все эти дополнительные мозговые ресурсы стоят дорого. OpenAI теперь платит за генерацию нескольких ответов на один запрос, а не только одного. На недавней лекции TED один из старших исследователей OpenAI подчеркнул преимущества рассуждений.
«Оказалось, что если бот размышляет всего 20 секунд в партии покера, это дает такой же прирост производительности, как масштабирование модели в 100 000 раз и обучение в 100 000 раз дольше», — сказал Ноам Браун, исследователь OpenAI.
Более продвинутая и эффективная модель рассуждений могла бы стать основой для Orion. Исследователи OpenAI стремятся к этому подходу и надеются сочетать его с прежним методом использования большего количества данных, часть которых может поступать от других моделей ИИ OpenAI. Затем OpenAI может уточнить результаты с помощью материалов, созданных людьми.
13 декабря Альтман объявил о планах по созданию новой модели рассуждений, которая будет умнее, чем все, что компания выпускала ранее. Он не уточнил, когда и будет ли выпущена модель, достойная называться GPT-5.
*Экстремистская организация, деятельность которой на территории Российской Федерации запрещена
Автор: technokratiya