Рубрика «tay»

Tay призналась в курении наркотических веществ рядом с полицейскими

Чатбот-расист от Microsoft вышел в онлайн, признался в употреблении наркотиков и был снова отключен - 1
Нет, эти глаза врать не могут

Как уже сообщалось на Geektimes, чатбот-девушка Tay, созданная стараниями специалистов Microsoft, стала общаться с обычными смертными в Twitter. Неокрепший ИИ не смог справиться с наплывом троллей, и стал повторять за ними фразы расистского толка. Корпорации пришлось удалить большую часть сообщений своего бота, и отключить его самого до выяснения обстоятельств происшедшего и исправления некоторых параметров общения.

Кроме того, корпорации пришлось извиниться перед пользователями за поведение своего бота. Сейчас, посчитав, что все хорошо, Microsoft вновь включила своего бота. По словам разработчиков, бота научили лучше различать зловредный контент. Тем не менее, почти сразу после очередного запуска бот-расист признался еще и в употреблении наркотиков.
Читать полностью »

Microsoft официально извинилась за поведение чатбота Tay - 1

Как уже сообщалось на Geektimes, корпорация Microsoft запустила в Twitter ИИ-бота, имитирующего общение подростка. И всего за сутки бот научился плохим вещам, повторяя различные нетолерантные высказывания пользователей сервиса микроблогов. Чатбот, можно сказать, попал в плохую компанию. Настолько плохую, что он (или она — ведь это подросток-девушка, по замыслу разработчиков) быстро научился говорить нехорошие вещи, и Microsoft пришлось отключить своего «подростка» через сутки после анонса. Это при том, что за общением системы следила целая команда людей-модераторов, которые пытались фильтровать входящий поток информации.

Корпорация Microsoft планирует вновь запустит бота, но только после того, как будет разработана соответствующая защита неокрепшего ИИ. Представители компании уже принесли извинения за непреднамеренные оскорбительные и обидные твиты Tay. Питер Ли, корпоративный президент Microsoft Research, заявил в блоге компании, что Tay будет вновь запущен только после того, как компания сможет защитить систему от вредоносного контента, который идет вразрез с принципами и ценностями Microsoft.
Читать полностью »

Security Week 12: ФБР взломает айфон без помощи Apple, криптодыра в iMessage, шифровальщики в больнице - 1Прежде чем перейти к новостям, поговорим о физиках и лириках о маркетинге уязвимостей. Этот относительно новый термин родился пару лет назад, с появлением Heartbleed — первой уязвимости, получившей собственное имя, логотип и рекламный ролик. Нельзя сказать, что все восприняли такое нововведение позитивно: дескать компании или эксперты, обнаружившие дыру, вместо сурового технического языка используют язык рекламы, и таким образом наживаются на беде. Не могу с этим согласиться. Хотя определенный момент рекламы тут есть (а где его нет?), попытки объяснить простыми словами (или даже образами) сложные технические вещи, о которых важно знать и неспециалистам, должны только приветствоваться.

Данная тема получила свое развитие на этой неделе, когда появилась, нет, не информация об уязвимости, а анонс уязвимости. Специалисты компании SerNet, в команде которой есть разработчики протокола SMB, объявили о серьезной уязвимости в таковом. Затронута как Linux-реализация протокола Samba, так и собственно Windows. Но детали раскрывать не стали: информация будет раскрыта только 12 апреля. Почему сделали именно так? Авторы исследования считают, что так у потенциальных жертв атаки будет возможность подготовиться. Довольно спорное утверждение: критики данной идеи утверждают, что таким образом исследователи могли дать фору атакующим, если последние догадаются о характере уязвимости, хотя бы из названия минисайта (Badlock). Стоило ли так делать — узнаем через две недели, во всех файловых шарах интернета.

А теперь к новостям. Предыдущие выпуски дайджеста тут.
Читать полностью »

Почему девушка-чатбот от Microsoft поддалась влиянию троллей c 4chan - 1

Как известно, вчера компании Microsoft пришлось «усыпить» чатбота Tay — программу ИИ, которая моделировала личность и стиль разговора 19-летней американской девушки и обладала функцией самообучения. Разработчики из Microsoft Research надеялись, что Tay с каждым днём будет становится всё умнее, впитывая опыт разговоров с тысячами умных пользователей интернета. Вышло совершенно иначе. Множество твитов Tay пришлось удалить из-за вопиющего расизма и неполиткорректности.
Читать полностью »

Под влиянием пользователей-людей самообучающийся бот стал расистом всего за день. Бота пришлось отключить

Microsoft запустила в Twitter ИИ-бота — подростка, и он за сутки научился плохим вещам - 1

Практически все техно-корпорации так либо иначе участвуют в разработке ИИ. Самообучающиеся автомобили с компьютерной системой управления, голосовые помощники или боты для Twitter. Корпорация Microsoft на днях представила своего бота для Twitter, способного самообучаться и ведущего себя, как подросток. Жаргонные словечки, стиль общения — все это практически не отличается от общения англоязычных подростков в Сети.

Бот-подросток стал активно использовать особенные словечки и сокращения: часть была внесена в его БД сразу, часть — попала в ходе обучения. Пользователи Twitter сразу же начали общаться с ботом, и не всегда вопросы или ответы людей были корректными или толерантными. Бот, можно сказать, попал в плохую компанию. Настолько плохую, что он быстро научился говорить нехорошие вещи, и Microsoft пришлось отключить своего «подростка» через сутки после анонса. И это при том, что за тем, как общается бот, следила целая команда людей-модераторов, которые пытались фильтровать входящий поток информации.
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js