Битва титанов: DeepSeek VS ChatGPT

в 9:21, , рубрики: chatgpt, codeforces, deepseek, DeepSeek R1, OpenAI

Привет!

Ну что ж, пожалуй, вы уже все знаете и о том, что такое DeepSeek, и о его бешеной популярности. Предлагаю разобраться, почему он вызвал такой большой интерес среди пользователей и разработчиков.

Итак, в чем заключается принципиальное отличие DeepSeek R1 и откуда такой ажиотаж? Все дело в качественных ответах модели с использованием логических рассуждений, вычислительной эффективности и открытости исходного кода. Это делает его потенциальным «моментом Спутника» в сфере ИИ. Ведь технология носит революционный характер и вполне может изменить правила игры так же, как и запуск первого искусственного спутника Земли в 1957 году. В случае DeepSeek - это открытие доступа к технологии создания высокопроизводительных LLM с минимальными вычислительными затратами. Это, можно сказать, вызов представлениям о том, что для достижения высочайшей производительности требуются массивные, дорогие в разработке и эксплуатации закрытые модели. Мы получаем потенциально более практичный и открытый путь развития продвинутых LLM.

Но давайте немного углубимся в детали. У любой технологии, даже самой революционной и продвинутой, есть и плюсы, и минусы. Я попробую обозначить, на мой взгляд, основные из них.

Сначала о хорошем:

  • Соотношение производительности и эффективности по сравнению с существующими решениями. Deepseek использует архитектуру Mixture-of-Experts (MoE), активируя всего лишь 37 млрд. параметров из 671 млрд. во время инференса. Такой архитектурный выбор в сочетании с алгоритмом Group Relative Policy Optimization (GRPO) в процессе обучения с подкреплением позволяет DeepSeek R1 и другим моделям серии достигать высокой производительности со значительно меньшими вычислительными затратами по сравнению с аналогами на dense-архитектуре. Это особенно важно для сред с ограниченными ресурсами и экономически выгодного развертывания.

  • Возможности логического рассуждения. Эта модель специально разработана и обучена для решения задач, связанных с логическими выводами и написанием кода. Бенчмарки подтверждают, что она обладает исключительными способностями в решении математических задач, логических рассуждениях и генерации кода, часто превосходящими или соответствующими показателям ведущих моделей в этих областях. Логические возможности DeepSeek R1 сопоставимы с возможностями моделей серии o1 от OpenAI, которые считаются эталоном для продвинутых логических рассуждений. Это подтверждается высокими результатами в бенчмарках, включая MATH-500, AIME 2024 и Codeforces.

  • Новая методология обучения на основе обучения с подкреплением. Четырехэтапный процесс, включающий использование синтетических данных для применения логических рассуждений дает значительные преимущества. Он предлагает потенциально более масштабируемый и эффективный способ развития продвинутых логических способностей LLM по сравнению с традиционными методами обучения с учителем.

  • Open-source. Выпуск DeepSeek R1-Zero, DeepSeek R1 и ряда более компактных distill-моделей с открытым исходным кодом способствует более свободному доступу к передовым технологиям LLM, развитию сотрудничества в сообществе, ускорению исследований и расширению возможностей небольших организаций и отдельных разработчиков.

Но, разумеется, несмотря на значительные преимущества, у DeepSeek R1 есть некоторые ограничения и недостатки:

  • Ограничения в некоторых задачах. По сравнению с DeepSeek-V3 (другой моделью DeepSeek), R1 имеет ограничения в общих задачах, таких как вызов функций, многоэтапные разговоры, сложные ролевые взаимодействия и генерация структурированных выходных данных (например, JSON). Он “заточен” преимущественно на логические рассуждения.

  • Проблемы со знанием языков. Хотя DeepSeek R1 отлично справляется с задачами на китайском и английском (ведь бОльшая часть обучающих данных была именно на них), при обработке запросов на других языках возникают трудности. А это указывает на потенциальные ограничения в многоязычных приложениях за пределами двух указанных языков.

  • Проблемы с безопасностью. Подпортила репутацию DeepSeek обнаруженная уязвимость базы данных с информацией о пользователях, историей чатов, ключами доступа к данным и т.д. Также исследователи из Cisco и Пенсильванского университета в ходе исследований выяснили, что модель подвержена всем видам атак на LLM и промпт-хакингу.

  • Цензура. В отличие от конкурентов, DeepSeek не подвержен американской/западной цензуре. Однако, в силу своего происхождения, отражает цензуру китайскую.

Я думаю, DeepSeek R1 действительно выглядит как значительный шаг вперед в области LLM. Ориентация на эффективность благодаря архитектуре MoE и обучение с подкреплением – убедительная альтернатива простому масштабированию dense-моделей. Кроме того, открытый исходный код заслуживает особого внимания, ведь он дает прямой доступ к технологии обучения такого рода LLM и весам уже обученной модели. Это, в свою очередь, позволяет исследователям проводить дальнейшую оптимизацию. Эти факторы открывают доступ к «сильным» LLM для пользователей с ограниченными вычислительными ресурсами и требованиями к конфиденциальности, обеспечивая возможность работы внутри страны/региона/компании. Так, например, интересным для локального использования кажется квантизированная версия R1 от Unsloth, где авторы внимательно проанализировали слои и веса и выполнили частичную квантизацию.

Надеюсь, это действительно послужит катализатором для нового этапа развития LLM.

Конечно, очень интересно, что нас ждет в ближайшем будущем. Касаемо DeepSeek R1, мне видится два важных направления: расширение возможностей модели и многоязычность. Будущие исследования должны быть направлены на расширение возможностей модели с использованием логических рассуждений, чтобы повысить производительность в более общих задачах, таких как вызов функций, сложные диалоги и генерация структурированных выходных данных. Ну а решение языковых проблем важно для глобального применения.

Что касается области LLM в целом, тут хотелось бы видеть, во-первых, продолжение исследований в области обучения с подкреплением, развития новых архитектурных решений. Успех подхода DeepSeek AI в таком обучении показывает перспективность такого пути. Потенциально это позволит получить более эффективные и специализированные модели.

Ведь также важна специализация приложений. Сильные стороны LLM делают их полезными для разработки компьютерных систем и программного обеспечения, управления системами и управленческого консалтинга, есть потенциал для создания специализированных инструментов и интеграций в различные области с дальнейшим распространением на все бОльшие сферы жизни.

Ну и, конечно же, важно отметить продолжение open-source направленности. Подход DeepSeek AI насчет открытого исходного кода может способствовать тенденции к большей открытости в области LLM и широкому доступу к инновациям. Так, например, HuggingFace уже заявила о создании в открытом доступе полного пайплайна обучения, аналогичного тому, что используется в DeepSeek R1.

Нельзя не отметить пользу для разработчиков, ведь появились более удобные решения.

Например, более корректная генерация кода и его понимание моделью. Бенчмарки, такие как Codeforces и LiveCodeBench, демонстрируют профессиональную компетенцию DeepSeek R1 в написании кода и хорошее понимание сложных задач.

Возросла эффективность механизмов обучения, что вкупе с архитектурой MoE может привести к снижению вычислительных затрат для разработчиков, использующих LLM, делая рабочий процесс более удобным для локальной разработки или сред с ограниченными ресурсами.

Открытый исходный код предоставляет разработчикам большую свободу для экспериментов, тонкой настройки и интеграции DeepSeek R1 в свои инструменты и рабочие процессы в отличие от моделей с закрытым исходным кодом.

В общем, это действительно большой шаг вперед. Не сомневаюсь, что успех такой архитектуры и механизма обучения (например, MoE, GRPO) придаст импульс развития и другим разработчикам LLM, замотивирует на новые достижения в этой области.

Автор: AlexMitenev

Источник

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js