Рубрика «llm-attack»
Защита LLM в разработке чат-ботов в корпоративной среде: как избежать утечек данных и других угроз
2024-09-30 в 14:05, admin, рубрики: llm-attack, атаки, безопасность данных, большие языковые модели, искусственный интеллект, мультимодальные модели, нейросети, утечкиСоздание своих тестов для Garak
2024-09-27 в 8:30, admin, рубрики: AI, Garak, llm, llm-attack, Malware, mlsecops, анализ уязвимостей, большие языковые модели, выявление угрозВ прошлой статье я уже говорил о тёмной стороне больших языковых моделей и способах борьбы с проблемами. Но новые уязвимости вскрываются ежедневно, и даже самые крутые инструменты с постоянными обновлениями не всегда за ними успевают. Именно поэтому команда Garak дает пользователям возможность самостоятельного расширения функционала своего инструмента.
Меня зовут Никита Беляевский, я исследую аспекты безопасности LLM решений в лаборатории AI SecurityЧитать полностью »
Garak: инструмент Red-Team для поиска уязвимостей в LLM
2024-09-16 в 9:04, admin, рубрики: AI, Garak, llm, llm-attack, Malware, MLSec, mlsecops, анализ уязвимостей, большие языковые модели, выявление угроз«ChatGPT раскрывает личные данные реальных людей!», «Атака на ChatGPT по сторонним каналам!», «Чат-бот ChatGPT стал причиной утечки секретных данных!», «Хакеры стали использовать ChatGPT в схемах фишинга!». Эти новостные заголовки раскрывают нам тёмную сторону больших языковых моделей. Да, они генерируют за нас контент и анализируют данные, но помимо удобства, приносят новые виды атак и уязвимостей, с которыми надо уметь бороться.
Меня зовут Никита Беляевский, я исследую аспекты безопасности LLM решений в лаборатории AI SecurityЧитать полностью »