
Акции NVIDIA рухнули, потеряв за одну ночь $600 миллиардов рыночной капитализации — крупнейший дневной обвал на рынке ценных бумаг в истории США. Это событие стало шоком для рынка GPU, будущее которого, как казалось, предопределено на годы вперед. Причиной стал запуск китайской нейросети DeepSeek, которая не только превзошла западных конкурентов, таких как ChatGPT, но и стоила в разработке в тысячу раз дешевле. Этот прорыв поставил под угрозу бизнес-модель NVIDIA, основанную на стабильном спросе на их GPU.
Разбираемся, как так вышло, вместе с Валерой Ковальским, CEO NDT by red_mad_robot.
Почему именно NVIDIA
Причина 1: Снижение зависимости от дорогих GPU
DeepSeek обучил свою модель всего за $6 млн, тогда как OpenAI и Google тратят миллиарды. Это стало возможным благодаря использованию RL — чистого обучения с подкреплением, без этапа supervised fine-tuning.
Что такое RL? Обучение с подкреплением — это метод, при котором модель учится взаимодействовать с окружающей средой методом проб и ошибок. Она получает вознаграждение за правильные действия, что позволяет ей постепенно улучшать свои результаты.
Почему без supervised fine-tuning? Обычно модели дообучают на больших размеченных данных, что требует значительных затрат на их сбор и обработку. DeepSeek отказался от этого этапа, сократив расходы.
Кроме того, вместо традиционного метода PPO (Proximal Policy Optimization, один из популярных алгоритмов обучения с подкреплением), использовался улучшенный GRPO (Generalized Reinforcement Policy Optimization).
Чем GRPO лучше? Новый алгоритм повышает стабильность и скорость обучения, что позволяет сократить количество вычислений и сделать процесс более эффективным.
Причина 2: Архитектура MoE (Mixture of Experts)
Mixture of Experts — это архитектура модели, где активируются лишь некоторые её части для выполнения задачи. В случае DeepSeek из 671 млрд параметров одновременно используются только 37 млрд. Результат — стоимость обработки одного токена у DeepSeek в 27 раз ниже, чем у OpenAI.
Причина 3: Смена парадигмы
Ранее считалось, что прогресс в AI возможен только за счёт увеличения вычислительных мощностей (так называемый Bitter Lesson). Этот принцип подтверждал, что добавление ресурсов и данных эффективно продвигает развитие моделей. DeepSeek доказал обратное: за счёт оптимизации методов обучения можно радикально сократить затраты и исключить необходимость в масштабных GPU-кластерах.
Последствия для рынка
Для инвесторов NVIDIA успех DeepSeek стал неприятным сюрпризом. Если ранее рост компании был основан на предположении, что спрос на GPU для обучения моделей будет только увеличиваться, то теперь очевидно: будущее технологий лежит в разработке более эффективных алгоритмов, а не в безграничном наращивании вычислительных мощностей. Это открывает новые перспективы для конкурентов и ставит под сомнение долгосрочные прогнозы NVIDIA.
И что теперь?
DeepSeek стал символом новой эпохи в развитии AI, где ключевую роль играет не только железо, но и оптимизация алгоритмов. Успех китайской нейросети напоминает рынку, что технологическое лидерство больше не эксклюзив западных компаний. NVIDIA, символ LLM-бума, теперь сталкивается с угрозой снижения спроса, что повлияет на весь сектор.
Над материалом работали:
текст — Валера Ковальский;
редактура — Игорь Решетников;
иллюстрации — Петя Галицкий.
Это блог red_mad_robot. Мы запускаем цифровые бизнесы и помогаем компаниям внедрять AI. Здесь наша команда разработки на собственных кейсах рассказывает о том, что происходит с AI сегодня, а стратегические аналитики подсказывают, что будет завтра. Мы бы подписались.
Наш телеграм канал (там всё другое, а ещё есть анонсы мероприятий): t.me/redmadnews
Автор: redmadrobot