При разработке приложений на основе больших языковых моделей (LLM, Large Language Model) встает вопрос: вызывать ли модель напрямую через API (например, OpenAI) или использовать специализированные фреймворки вроде LangChain или LangGraph. Ниже мы рассмотрим, с какими сложностями сталкивается разработчик при прямом использовании LLM, и как LangChain и LangGraph помогают упростить создание сложных диалоговых и агентных систем. Также приведем примеры кода, сравнивая прямые вызовы с использованием этих фреймворков, и обсудим, когда их применение оправдано.
Рубрика «chatgpt»
Как LangChain и LangGraph упрощают жизнь разработчика ИИ-Агентов
2025-02-11 в 10:17, admin, рубрики: chatgpt, LangChain, langgraph, llm, OpenAI, python, агенты ии, чат-ботПочему GPT-4 ошибается в 96% случаев: границы возможностей LLM
2025-02-09 в 16:59, admin, рубрики: chatgpt, искусственный интеллект, математика7 декабря 1962 года журнал Life International опубликовал логическую головоломку, состоящую из 15 предложений, описывающих пять домов на улице. Каждое предложение содержало подсказку, например: «Англичанин живёт в красном доме» или «Молоко пьют в среднем доме». Каждый дом имел свой цвет, в нём проживали люди разных национальностей, у которых были разные домашние животные и другие характеристики. Заголовок статьи гласил: «Кому принадлежит зебра?» Подобные задачи стали примером для оценки возможностей, а также ограничений современных моделей машинного обучения.
Промпты для ChatGPT, которые могут повысить качество ответов ChatGPT
2025-02-08 в 12:41, admin, рубрики: chatgpt, chatgpt-4, ИИ, промпты![Промпты для ChatGPT, которые могут повысить качество ответов ChatGPT - 1 Только 1% пользователей Chat GPT знают эти секретные промпты. Они могут в 10 раз повысить качество ответов Chat GPT](https://www.pvsm.ru/images/2025/02/08/prompty-dlya-ChatGPT-kotorye-mogut-povysit-kachestvo-otvetov-ChatGPT.png)
Давайте будем честными.
DeepSeek и Qwen 2.5 против ChatGPT: как китайские компании запустили новый скачок в мире ИИ
2025-02-06 в 15:39, admin, рубрики: AI, chatgpt, deepseek, DeepSeek R1, llm, qwen2.5-max, ИИ, ии-модельВ последние недели мир искусственного интеллекта (ИИ) был потрясен значительными достижениями китайских компаний, особенно DeepSeek и Alibaba, которые представили свои передовые модели — DeepSeek-R1 и Qwen 2.5-Max соответственно. Конечно же, эти события вызвали широкий резонанс в технологическом сообществе и привели к обсуждению будущего ИИ.
Меня зовут Роман Ленц, я начальник отдела анализа данных и машинного обучения ПГК Диджитал — цифровой дочки Первой грузовой компанииЧитать полностью »
Программист за $4000 против ChatGPT за $20: кто победит в 2025?
2025-02-06 в 14:30, admin, рубрики: chatgpt, copilot, llm, зарплата программиста, кадры, Программирование, промт-инженеры, промтинг, разработка, увольненияo3-mini — лучшая модель для программирования на данный момент (лучше, чем DeepSeek R1)
2025-02-06 в 12:45, admin, рубрики: chatgpt, chatgpt o3, o3, o3 mini![o3-mini — лучшая модель для программирования на данный момент (лучше, чем DeepSeek R1) - 1 o3-mini -лучшая модель для программирования на данный момент (лучше, чем DeepSeek R1)](https://www.pvsm.ru/images/2025/02/06/o3-mini-luchshaya-model-dlya-programmirovaniya-na-dannyi-moment-luchshe-chem-DeepSeek-R1.jpg)
Недавно OpenAI выпустила модели o3-mini и o3-mini-high, и теперь они доступны в ChatGPT и API.
Сможет ли DeepSeek R-1 ответить на эти 5 сложных для ИИ вопросов?
2025-02-04 в 9:33, admin, рубрики: chatgpt, chatgpt-4, deepseek, DeepSeek R1, дипсик![Сможет ли DeepSeek R-1 ответить на эти 5 сложных для ИИ вопросов? - 1 Сможет ли DeepSeek R-1 ответить на эти 5 сложных вопросов для ИИ?](https://www.pvsm.ru/images/2025/02/05/smojet-li-DeepSeek-R-1-otvetit-na-eti-5-slojnyh dlya-ii-voprosov.jpg)
DeepSeek-R1 для чайников
2025-02-03 в 19:30, admin, рубрики: chatgpt, deepseek, llm, nlp, reasoning models, RLHFВ последние месяцы всё чаще слышим про «reasoning-модели», способные не просто продолжать текст, а действительно шаг за шагом решать сложнейшие задачи цепочкой рассуждений (chain-of-thought). Впервые такой подход эффектно показали в OpenAI o1, но, к сожалению, подробности там остаются секретными. Недавно же команда DeepSeek наделала шуму с открытыми вариантами R1 и R1-Zero, созданными поверх их собственной большой MoE-модели DeepSeek-V3. В этом посте я не стану углубляться в вопрос «чья модель лучше — o1 или R1». Зато разберу, какие главные технические деталиЧитать полностью »
Сравнение кода DeepSeek и ChatGPT(Golang)
2025-02-02 в 11:17, admin, рубрики: chatgpt, chatgpt-4, deepseek, DeepSeek R1, Go, искуственный интеллектВесь этот шум заставил меня заинтресоваться DeepSeek. Самое банальное сравнить с ChatGPT. Ну и плюсом, у меня сегодня выходной, можно и поиграть немного. Код пусть будет на Go. Модели GPT-o1 и Deepseek-R1.
Заданием для нейронок будет написать две игры. Эти две игры это вообще первое что я когда либо написал в своей жизни, правда, это было не на Go.
Задание 1: Игра "Пинг-Понг" на Go
Промт:
Читать полностью »
Сравнение кода от DeepSeek и ChatGPT по-гоферски
2025-02-01 в 19:16, admin, рубрики: chatgpt, deepseek, Go, golangВ поисках утреннего чтива на Хабре наткнулся на статью про сравнение кода на Swift, сгенерированного двумя действующими лицами - ChatGPT от OpenAI и его нашумевший "убийца" - DeepSeek, основателем которого выступает Лян Вэньфэн, про которого можно узнать в статье на VC.
После прочтения статьи в голову вполне ожидаемо пришла идея сравнения сгенерированного кода на Go. Правила те же самые - одинаковые промпты, если с результатом все совсем плохо - даем еще одну попытку, но условно ставим "незачет".
Читать полностью »