Привет! Меня зовут Виктор Плошихин, я руковожу ML‑лабораторией в Yandex Infrastructure, мой коллега Константин Моксин @kamoksin работает разработчиком‑аналитиком в этой же лаборатории — и мы оба пишем очень много кода. Этой осенью наша команда запустила Yandex Code Assistant — помощник для работы с кодом — и открыла к нему бесплатный доступ в режиме тестирования на платформе Yandex Cloud. И нам было важно не просто научить нейросеть писать код, но и сделать так, чтобы разработчики были довольны работой этого помощника.
Рубрика «llm» - 14
Как мы учили Yandex Code Assistant помогать разработчикам с написанием кода и делать их счастливыми
2024-09-12 в 7:00, admin, рубрики: IDE, llm, искусственный интеллект, кодовый ассистент, Программирование, разработкаЧем человеческое мышление принципиально отличается от LLM?
2024-09-11 в 21:36, admin, рубрики: llm, мышлениеНа вопрос отвечают несколько LLM: GPT-4, Claude 3.5 Sonnet, LLAMA 3.1 405b instruct, а также две русскоязычные: YandexGPT 2 и GigaChat от Сбера.
Большие и чёрные (ящики): что мы знаем о том, как «думают» нейросети?
2024-09-11 в 4:55, admin, рубрики: chatgpt, gpt-4, llm, natural language processing, OpenAI, длиннопост, нейросети, языковые моделиChatGPT вышел уже почти два года назад, а датасаентисты до сих пор никак не могут определиться — являются ли нейросети тварями дрожащими, или всё же мыслить умеют? В этой статье мы попробуем разобраться: а как вообще учёные пытаются подойти к этому вопросу, насколько вероятен здесь успех, и что всё это означает для всех нас как для человечества.
Что такое Retrieval-Augmented Generation (RAG) в языковых моделях и как оно работает?
2024-09-06 в 14:33, admin, рубрики: AI, llm, nlp, rag, retrieval augmented generation, искусственный интеллектВ контексте разговоров о больших языковых моделях (LLM) все чаще возникает аббревиатура RAG – Retrieval-Augmented Generation, или если переводить на русский язык, то «поисковая дополненная генерация». В этом тексте попробуем в общих чертах разобраться, как работает RAG, и где он может быть применим на практических задачах.
Дисклеймер: это вольный перевод поста с портала Medium, который написал Сахин Ахмед. Перевод подготовила редакция «Технократии». Чтобы не пропустить анонс новых материалов подпишитесь на Читать полностью »
Актуальные угрозы безопасности в Large Language Model Applications
2024-09-05 в 7:18, admin, рубрики: large language model, llm, будущее, будущее здесь, искуственный, машинное обучениеПривет! Меня зовут Артем Бачевский. Я был разработчиком, архитектором, потом перешел в отрасль информационной безопасности. Эта статья — переработка моего доклада с Saint HighLoad++, так что простите за мой французский. Там я рассказывал про актуальные угрозы в Large Language Model Applications и способы борьбы с ними. Поехали!
Читать полностью »
Обзор бенчмарков для тестирования LLM (больших языковых моделей)
2024-09-03 в 10:33, admin, рубрики: AI, llm, бенчмарки, большие языковые модели, ИИ, искуственный интеллектИрина Барская, Head Data Scientist в Яндексе, которая работала над голосовым ассистентом «Алиса» и Yasmina для рынка Саудовской Аравии, написала для портала Unite.ai обзор основных бенчмарков, которые используются для оценки работы больших языковых моделей. А мы этот обзор перевели.
Шлепа — Большой Русский Бенчмарк
2024-09-02 в 7:00, admin, рубрики: llama, llm, mistral, бенчмаркингЗдарова! На связе лаборатория Вихрей, сегодня мы расскажем про наш бенчмарк, Шлёпа — большой русский бенчмарк.
Что есть сейчас для оценки русскоязычных LLM
Mera — бенчмарк от Альянса искусственного интеллекта, использует тесты и генерацию, сабмит через сайт, сайт почти не обновлялся с зимы. Почитать про него можно тут
Автоматизация Code Review с помощью LLM
2024-08-29 в 11:02, admin, рубрики: code review, llm, llm-приложения, код ревьюКак в Faire (мультибрендовая торговая площадка) внедрили автоматизиорванные Code Review c LLM (статья - мой перевод для нашего ТГ канала посвященного разработке софта при помощи LLM).
Насколько ChatGPT-4o подвержен когнитивным искажениям?
2024-08-28 в 14:45, admin, рубрики: chatgpt, llm, ИИ, ИИ и машинное обучение, когнитивные искажения, языковые моделиЧеловеческий разум, столь сложный и удивительный, далеко не безупречен. Десятилетия исследований в области когнитивной психологии показали, что наше мышление подвержено систематическим ошибкам, известным как когнитивные искажения. Например, Канеман и Тверски открыли глаза на то, как часто мы подвергаемся влиянию искажений, даже когда абсолютно уверены в рациональности принятого решения. Мы склонны видеть мир не таким, какой он есть, а сквозь призму собственных предубеждений и упрощений. Но что, если эти же искажения проявляются и у искусственного интеллекта?