Рубрика «llm» - 12
Как и зачем мы замеряли знания культурного кода у YandexGPT
2024-12-23 в 9:00, admin, рубрики: llm, ml, yandexgpt, культурный код, нейросетиРеальное внедрение LLM в бизнес-процессы (3 кейса)
2024-12-22 в 20:20, admin, рубрики: AI, llm, llm-приложенияВсем привет! Меня зовут Сергей Темченко, я работаю системным аналитиком в компании EORA. Мы внедряем LLM-решения в такие компании, как Додо, Столото и другие.
Сегодня я расскажу о трёх кейсах внедрения LLM в крупных компаниях: Магнит, Skyeng и Точка. С представителями первых двух я лично созванивался, чтобы узнать детали. Эти кейсы охватывают разные сферы и помогают решать различные задачи, но всех их объединяет одно: грамотное использование LLM для быстрой оптимизации процессов. В конце статьи я подытожу своё отношение к внедрению LLM, основываясь на этих примерах.
Кейс 1: внедрения LLM для модерации отзывов в Магнит
Вот читаю статьи и новости о том, что AI теперь занимается анализом данных, AI занимается выработкой решений, AI занимается тем и этим, причем всякие люди, облечённые властью и полномочиями, готовы внедрять AI-решения везде, потому что это действительно помогает ускорить различные процессы.
Но помнит ли еще кто-нибудь о том, что AI, строго говоря, не гарантирует правильности решений? Сам принцип работы нейросетей основан на том, что называется "кажется": кажется, что вот эта фигура - человек, кажется, что вот такое решение - правильное и единственно верное.
Читать полностью »
Как LLM меняют архитектуру систем: от простых дата-пайплайнов к интеллектуальным автономным агентам
2024-12-22 в 6:23, admin, рубрики: big data, data, data en, llm, llm-приложения, machine learning, nlp, агентыНа каждой технической конференции в последнее время обязательно звучит слово «агенты». Они преподносятся по разному: и как следующая ступенька после RAG, и как серебряная пуля для всех проблем, и как абсолютная замена всех классических пайплайнов. А кто еще не использует агентов — безнадежно отстал от прогресса.

Если шутка не смешная: как расшифровать культурный код фильма при помощи LLM
2024-12-20 в 6:19, admin, рубрики: gpt-4o mini, llm, культурные реалии, субтитры, фильмыНаверняка многие любят либо изучать, либо поддерживать текущий уровень иностранного языка, смотря фильмы в оригинале. Есть и у меня любимая площадка, где я регулярно смотрю фильмы на английском.
Недавно наткнулась на знаковый для меня фильм I Don't Know How She Does It, 2011. Он про работающую мать, которая балансирует между карьерой и воспитанием детей. Так как мне явно откликнулся образ главной героини, видимо он и сподвиг меня на свершения)
Что лучше — Биткойн или Tesla: используем агентов Autogen для анализа
2024-12-19 в 13:36, admin, рубрики: agents, llmВы когда-нибудь задумывались, что лучше для инвестиций — NVidia или Tesla? Но что делать, если вам лень самостоятельно проводить анализ или вы даже не знаете, с чего начать?
Лучшие крупные языковые модели в ноябре 2024 г
2024-12-16 в 13:46, admin, рубрики: Claude 3.5 v2 Update, gpt-4o, llm, LLM Benchmark v2, qwen, Text-to-SQL, бенчмарки
В ноябре в ТОП-10 в «LLM Benchmark» произошло много изменений. Также произошли некоторые изменения в том, как мы создаем продукты на основе LLM. Давайте приступим.
-
Обновление: Claude Sonnet 3.5 v2 — отличные возможности PDF
-
GPT-4o от 20 ноября — ТОП-3!
-
Qwen 2.5 Coder 32B Instruct — посредственный, но продвигает SotA!
-
Qwen QwQ 32B Preview — слишком умный
BABILong — бенчмарк для оценки LLM на больших контекстах
2024-12-16 в 7:24, admin, рубрики: benchmark, llm, бенчмарки, длинный контекстПривет! Мы — команда Memory‑Augmented models в составе лаборатории Cognitive AI Systems AIRI. В ходе своих исследований мы стараемся разобраться, насколько хорошо LLM могут обрабатывать большой объем данных и решать задачи на основе них.
Разработчики современных языковых моделей соревнуются в длине контекста, и счёт уже идёт на миллионы токенов. Но насколько эффективно LLM пользуются информацией из этого контекста?
Чтобы выяснить это, мы вместе с коллегами из МФТИ и Лондонского института Математических Наук создали новый бенчмарк под названием BABILong, который привезлиЧитать полностью »
Бенчмарк SLAVA: шаг к мировоззренческому суверенитету
2024-12-15 в 12:27, admin, рубрики: llm, LLM в социальной инженерии, nlp
В предыдущей статье мы обсудили важный вопросЧитать полностью »
Как выбрать лучшую модель для кодирования: использование SLM и локальных LLM
2024-12-12 в 16:30, admin, рубрики: llm, SLM, большие языковые модели, локально размещённые LLM, малые языковые модели
Привет, на связи Юлия Рогозина, аналитик бизнес-процессов Шерпа Роботикс. Сегодня я перевела для вас статью, посвященную использованию SLM и локальных LLM. Читать полностью »