Рубрика «chatgpt»

При разработке приложений на основе больших языковых моделей (LLM, Large Language Model) встает вопрос: вызывать ли модель напрямую через API (например, OpenAI) или использовать специализированные фреймворки вроде LangChain или LangGraph. Ниже мы рассмотрим, с какими сложностями сталкивается разработчик при прямом использовании LLM, и как LangChain и LangGraph помогают упростить создание сложных диалоговых и агентных систем. Также приведем примеры кода, сравнивая прямые вызовы с использованием этих фреймворков, и обсудим, когда их применение оправдано.

Проблемы при прямом вызове LLM API

Читать полностью »

7 декабря 1962 года журнал Life International опубликовал логическую головоломку, состоящую из 15 предложений, описывающих пять домов на улице. Каждое предложение содержало подсказку, например: «Англичанин живёт в красном доме» или «Молоко пьют в среднем доме». Каждый дом имел свой цвет, в нём проживали люди разных национальностей, у которых были разные домашние животные и другие характеристики. Заголовок статьи гласил: «Кому принадлежит зебра?» Подобные задачи стали примером для оценки возможностей, а также ограничений современных моделей машинного обучения.

Читать полностью »

Только 1% пользователей Chat GPT знают эти секретные промпты. Они могут в 10 раз повысить качество ответов Chat GPT

Только 1% пользователей Chat GPT знают эти секретные промпты. Они могут в 10 раз повысить качество ответов Chat GPT

Давайте будем честными.

Читать полностью »

В последние недели мир искусственного интеллекта (ИИ) был потрясен значительными достижениями китайских компаний, особенно DeepSeek и Alibaba, которые представили свои передовые модели — DeepSeek-R1 и Qwen 2.5-Max соответственно. Конечно же, эти события вызвали широкий резонанс в технологическом сообществе и привели к обсуждению будущего ИИ.

Меня зовут Роман Ленц, я начальник отдела анализа данных и машинного обучения ПГК Диджитал — цифровой дочки Первой грузовой компанииЧитать полностью »

o3-mini -лучшая модель для программирования на данный момент (лучше, чем DeepSeek R1)

o3-mini -лучшая модель для программирования на данный момент (лучше, чем DeepSeek R1)

Недавно OpenAI выпустила модели o3-mini и o3-mini-high, и теперь они доступны в ChatGPT и API.

Читать полностью »

Сможет ли DeepSeek R-1 ответить на эти 5 сложных вопросов для ИИ?

Сможет ли DeepSeek R-1 ответить на эти 5 сложных вопросов для ИИ?

Читать полностью »

В последние месяцы всё чаще слышим про «reasoning-модели», способные не просто продолжать текст, а действительно шаг за шагом решать сложнейшие задачи цепочкой рассуждений (chain-of-thought). Впервые такой подход эффектно показали в OpenAI o1, но, к сожалению, подробности там остаются секретными. Недавно же команда DeepSeek наделала шуму с открытыми вариантами R1 и R1-Zero, созданными поверх их собственной большой MoE-модели DeepSeek-V3. В этом посте я не стану углубляться в вопрос «чья модель лучше — o1 или R1». Зато разберу, какие главные технические деталиЧитать полностью »

Весь этот шум заставил меня заинтресоваться DeepSeek. Самое банальное сравнить с ChatGPT. Ну и плюсом, у меня сегодня выходной, можно и поиграть немного. Код пусть будет на Go. Модели GPT-o1 и Deepseek-R1.

Заданием для нейронок будет написать две игры. Эти две игры это вообще первое что я когда либо написал в своей жизни, правда, это было не на Go.

Задание 1: Игра "Пинг-Понг" на Go

Промт:
Читать полностью »

В поисках утреннего чтива на Хабре наткнулся на статью про сравнение кода на Swift, сгенерированного двумя действующими лицами - ChatGPT от OpenAI и его нашумевший "убийца" - DeepSeek, основателем которого выступает Лян Вэньфэн, про которого можно узнать в статье на VC.

После прочтения статьи в голову вполне ожидаемо пришла идея сравнения сгенерированного кода на Go. Правила те же самые - одинаковые промпты, если с результатом все совсем плохо - даем еще одну попытку, но условно ставим "незачет".
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js