Рубрика «llm» - 14

Привет! Меня зовут Виктор Плошихин, я руковожу ML‑лабораторией в Yandex Infrastructure, мой коллега Константин Моксин @kamoksin работает разработчиком‑аналитиком в этой же лаборатории — и мы оба пишем очень много кода. Этой осенью наша команда запустила Yandex Code Assistant — помощник для работы с кодом — и открыла к нему бесплатный доступ в режиме тестирования на платформе Yandex Cloud. И нам было важно не просто научить нейросеть писать код, но и сделать так, чтобы разработчики были довольны работой этого помощника.

Читать полностью »

К вопросу о разнице мышления...

К вопросу о разнице мышления...

На вопрос отвечают несколько LLM: GPT-4, Claude 3.5 Sonnet, LLAMA 3.1 405b instruct, а также две русскоязычные: YandexGPT 2 и GigaChat от Сбера.

Читать полностью »

ChatGPT вышел уже почти два года назад, а датасаентисты до сих пор никак не могут определиться — являются ли нейросети тварями дрожащими, или всё же мыслить умеют? В этой статье мы попробуем разобраться: а как вообще учёные пытаются подойти к этому вопросу, насколько вероятен здесь успех, и что всё это означает для всех нас как для человечества.

Читать полностью »

В контексте разговоров о больших языковых моделях (LLM) все чаще возникает аббревиатура RAG – Retrieval-Augmented Generation, или если переводить на русский язык, то «поисковая дополненная генерация». В этом тексте попробуем в общих чертах разобраться, как работает RAG, и где он может быть применим на практических задачах.

Дисклеймер: это вольный перевод поста с портала Medium, который написал Сахин Ахмед. Перевод подготовила редакция «Технократии». Чтобы не пропустить анонс новых материалов подпишитесь на Читать полностью »

Привет! Меня зовут Артем Бачевский. Я был разработчиком, архитектором, потом перешел в отрасль информационной безопасности. Эта статья — переработка моего доклада с Saint HighLoad++, так что простите за мой французский. Там я рассказывал про актуальные угрозы в Large Language Model Applications и способы борьбы с ними. Поехали!

Актуальные угрозы безопасности в Large Language Model Applications - 1

Читать полностью »

Обзор бенчмарков для тестирования LLM (больших языковых моделей) - 1

Ирина Барская, Head Data Scientist в Яндексе, которая работала над голосовым ассистентом «Алиса» и Yasmina для рынка Саудовской Аравии, написала для портала Unite.ai обзор основных бенчмарков, которые используются для оценки работы больших языковых моделей. А мы этот обзор перевели.

Читать полностью »

Шлепа — Большой Русский Бенчмарк - 1

Здарова! На связе лаборатория Вихрей, сегодня мы расскажем про наш бенчмарк, Шлёпа — большой русский бенчмарк.

Что есть сейчас для оценки русскоязычных LLM

Mera — бенчмарк от Альянса искусственного интеллекта, использует тесты и генерацию, сабмит через сайт, сайт почти не обновлялся с зимы. Почитать про него можно тут

Любая инновационная технология наверняка столкнется с судебными разбирательствами, но период активного развития искусственного интеллекта выдался особенно суровым в плане юридических споров.

26 судебных дел против OpenAI, Anthropic и Meta*: короткий обзор судебных исков против крупнейших ИИ-компаний - 1

Читать полностью »

Как  в Faire (мультибрендовая торговая площадка) внедрили автоматизиорванные  Code Review c LLM (статья - мой перевод для нашего ТГ канала посвященного разработке софта при помощи LLM). 

Читать полностью »

Человеческий разум, столь сложный и удивительный, далеко не безупречен. Десятилетия исследований в области когнитивной психологии показали, что наше мышление подвержено систематическим ошибкам, известным как когнитивные искажения. Например, Канеман и Тверски открыли глаза на то, как часто мы подвергаемся влиянию искажений, даже когда абсолютно уверены в рациональности принятого решения. Мы склонны видеть мир не таким, какой он есть, а сквозь призму собственных предубеждений и упрощений. Но что, если эти же искажения проявляются и у искусственного интеллекта?

Читать полностью »

https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js