В 2024 году популярными словами и постоянной темой для обсуждения в IT были большие языковые модели (LLM), обработка естественного языка (NLP), искусственный интеллект и создание ценностей. Однако вкатиться в эту экосистему без подготовки может быть довольно сложно. Давайте начнём с того, что рассмотрим понятие генерации с дополненной выборкой (Retrieval Augmented Generation, RAG), чтобы лучше понять эту технологию и возможность её использования в наших цифровых продуктах.
Рубрика «llm» - 5
Применение технологии RAG при построении интегрированных систем для цифровых продуктов: детальный разбор
2025-02-02 в 17:26, admin, рубрики: llm, rag, архитектура RAG, векторная база данных, генерация текста, ИИ, ИИ и машинное обучение, искусственный интеллект, конвейер RAG, языковые моделиHAI LLM: Как DeepSeek снизил стоимость обучения и генерации в разы без потери качества?
2025-02-02 в 10:07, admin, рубрики: deepseek, deepseek v3, hai llm, HighFlyer, llm, ИИ, ИИ и машинное обучениеРаботу у AI отобрал другой AI )
Компания HighFlyer внедрила в свою LLM такие архитектурные фишки как Multi-Head Latent Attention, Mixture of Experts (MoE) with Auxiliary-Loss-Free Load Balancing и Multi-Token Predict. Однако все эти новшества уже были ранее представлены в других LLM: GPT-4, Llama, Mistrall и других.

Полистав Читать полностью »
Многопользовательский рой агентов для Ollama
2025-02-01 в 18:46, admin, рубрики: chatgpt, deepseek, javascript, llm, Ollama, OpenAI, python, telegram, TypeScript, искусственный интеллектВ данной статье осуществлен разбор многопользовательского телеграм чат бота на LLM, код которого опубликован в этом репозитории
Куда движется рынок
Когда-то давным давно графический пользовательский интерфейс сменил консольный ввод. Казалось бы, проблему неудобства взаимодействия для неподготовленного пользователя мог бы решить псевдографический интерфейс, но есть фактор, который не все замечают
Недостатки искусственного интеллекта: взгляд изнутри и что мы можем увидеть снаружи. Кому нужен божественный ИИ
2025-02-01 в 2:54, admin, рубрики: AI, llm, ИИЯ спросил какой-то чат не-GPT про недостатки исскуственного интеллекта (далее ИИ) и он мне выдал бодрый ответ за который в старших классах наверняка бы поставили пятерку.
Но человека отличает наличие собственного мнения которое он стремится защищать даже когда его напрямую не подвергают сомнению, то есть мы умеем отвечать или даже возражать не на прямые вопросы с подвохом или без, но даже на сторонние казалось бы нейтральные рассуждения. Мы способны анализировать и находить то что разрушает наше мировозрение и возражать на это.
Как вы думаете что спорного или даже плохого можно найти в такой формулировке от машины:
99 вкладок браузера или «Бесконечность — не предел!»
2025-01-31 в 16:15, admin, рубрики: llm, rag, интервью с клиентами, искусственный интеллект, итмо, опыт, расширения браузеров, стартап
Представьте: вы открываете браузер и... 99 вкладок, хаос, поиск той самой нужной страницы превращается в квест. Мы, команда ИИнтеграция, столкнулись с этим лично, и именно так родился HoundApp — интеллектуальный ассистент, который призван помочь навести порядок.
Всё началось с магистратуры магистратуры AI Talent Hub от ИТМО x Napoleon ITЧитать полностью »
Всё, что я узнал о запуске локальных языковых моделей
2025-01-31 в 14:53, admin, рубрики: AI, llm, llm-модели, ИИ, искусственный интеллект, локальный chatgpt, перевод
В мире, где облачные решения диктуют свои правила, локальные модели дают свободу — полную приватность, работу офлайн и отсутствие ограничений. Эта статья для тех, кто хочет впервые попробовать самостоятельно запустить LLM на своем компьютере.
Применение LLM + RAG для диалоговых систем в службе поддержки
2025-01-30 в 11:53, admin, рубрики: AI, llm, rag, robovoice, ИИ, техподдержкаАвтоматизация клиентской поддержки с помощью больших языковых моделей — перспективное направление, но без доработки они не всегда способны дать точные и релевантные ответы. Меня зовут Михаил Крюков, технический директор платформы Robovoice (SL Soft), и в этой статье я расскажу, как усиливать LLM с помощью RAG.
Deepseek v3: Как скачать китайскую нейросеть Дипсик AI, все способы
2025-01-29 в 21:40, admin, рубрики: deepseek, DeepSeek R1, deepseek v3, llm, llm-модели, дипсик, ИИ, ии-ассистент, нейросети, нейросетьДипсик R1 - нашумевшая ИИ модель от китайской компании Deepseek AI. За основу взята модель Deepseek v3, возможности которой схожи с ChatGPT. Однако благодаря открытому исходному коду китайской нейросети у нее есть ряд интересных преимуществ.
В этой статье собрал все способы установки Дипсик. Т.к. китайская нейросеть с открытым исходным кодом – ее можно скачать на компьютер и использовать без Интернета. Причем, в удобном интерфейсе чат-бота.
1. Самый простой (но не всегда рабочий) способ: через сайт Deepseek
Переходим на официальный сайт chat.deepseek.comЧитать полностью »