Привет! Меня зовут Денис Березуцкий, я старший инженер по разработке ПО искусственного интеллекта в YADRO. В ML-команде мы разрабатываем системы, которые облегчают работу нашим заказчикам с помощью текстовых генеративных нейросетей: реализуем Читать полностью »
Рубрика «галлюцинации»
«Ошибка на миллиард» в ИИ: боремся с галлюцинациями в LLM по аналогии с NullPointerException
2025-03-18 в 10:13, admin, рубрики: deepseek, llm, lora, saiga, галлюцинации, ИИ, модели, нейросетиПричины возникновения галлюцинаций LLM
2025-01-20 в 10:26, admin, рубрики: llm, большие языковые модели, галлюцинации, галлюцинации ИИ, галлюцинирование нейросетейВ данной статье будет представлен укороченный и упрощенный перевод статьи “A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions”. А именно перевод части, относящейся к причинам возникновения галлюцинаций. Упрощение состоит в том, что были опущены части, уходящие в конкретику. В этом переводе мы сосредоточимся на основных причинах возникновения галлюцинаций и примерах.

Super Ethical Reality: о чем нужно задуматься прежде, чем использовать LLM в разработке
2024-12-28 в 8:31, admin, рубрики: llm, безопасность, галлюцинации, машинное обучение, цензура, этикаСтоит ли нам доверять тому, что не способно осознавать последствий своих действий? Кажется, что ответ очевиден, но по мере развития ниши лингвистических моделей мы всё чаще поручаем ИИ выполнять за нас часть рутинных задач.
Меня зовут София, я сотрудница RnD-отдела компании RaftЧитать полностью »
Галлюцинации в LLM и методы борьбы
2024-12-06 в 8:38, admin, рубрики: llm, rag, галлюцинации, дообучениеОдна из основных проблем использования больших языковых моделей (LLM) в бизнесе заключается в том, что LLM склонны к галлюцинациям. Как можно доверить своих клиентов чат-боту, который может слететь с катушек и в любой момент сказать что-то неуместное? Или как можно доверять корпоративному AI-ассистенту, если он рандомно придумывает факты?
Что побуждает LLM врать и как этого избежать в своих продуктах
2024-12-06 в 8:38, admin, рубрики: llm, rag, галлюцинации, дообучениеОдна из основных проблем использования больших языковых моделей (LLM) в бизнесе заключается в том, что LLM склонны к галлюцинациям. Как можно доверить своих клиентов чат-боту, который может слететь с катушек и в любой момент сказать что-то неуместное? Или как можно доверять корпоративному AI-ассистенту, если он рандомно придумывает факты?
Почему галлюцинируют нейросети [и что с этим делают]
2024-11-04 в 15:05, admin, рубрики: галлюцинации, ИИ, ИИ и машинное обучение, нейросетьChatGPT и Gemini не могут справиться даже с простой математической задачкой на логику
2024-10-08 в 11:15, admin, рубрики: AI, chatgpt, comedy, gemini, humor, jokes, галлюцинации, галлюцинирование нейросетей, комедия, юморСегодня увидел на репетиторском канале (https://t.me/mimimaths) простенькую задачку на логику. И решил попробовать скормить ее ChatGPT и Gemini. Просто интереса ради. Вспомнил, что когда вышла ChatGPT 4-o в демках показывали, как она якобы может заменить учителей.

Действительно ли большие языковые модели галлюцинируют? Эксперимент
2024-08-28 в 11:09, admin, рубрики: GPT-2, llm, большие языковые модели, галлюцинации, искусственный интеллект, машинное обучение, обучениеСуществует мнение, что основная проблема больших языковых моделей — в склонности к галлюцинациям. Когда нейросеть генерирует текст с информацией, не связанной с запросом.
Меня зовут Полина, я инженер по разработке ПО искусственного интеллекта в YADROЧитать полностью »
История о том, как Google подсматривал за нашим сайтом и галлюцинировал
2024-01-11 в 23:23, admin, рубрики: Google Safe Browsing, блокировка сайтов, галлюцинации
В 2023-ем году мы узнали, что нейросети могут галлюцинировать. На первый взгляд, это довольно забавное и пока что безобидное явление. Но в этой короткой статье я расскажу, как я столкнулся с галлюцинациями самого Google, и как это чуть не угробило стартап, в котором я работаю.
Генеративный ИИ — это просто «замыленный JPEG интернета», который убедительно косит под интеллект
2023-11-23 в 5:44, admin, рубрики: chatgpt, gpt, jpeg, llm, галлюцинации, генеративные модели, ИИ, искусственный интеллект, языковые моделиИИ чат‑боты любят ловить глюки и выдавать всякую чушь. Так массово, что словом 2023 года признали «галлюцинировать». В чем причина такого явления? Является ли генеративный ИИ интеллектом (спойлер — и да, и нет)? И что общего у ChatGPT и копировального аппарата Xerox? Разбираемся, осмысляя базовую логику работы языковых моделей.
Небольшое вступление или "в чем суть проблемы?"
Кебриджский словарь признал Читать полностью »