OpenAI, несмотря на свое название, заслужила репутацию секретной компании. Однако список проблем процветающего технологического гиганта продолжает пополняться. Новый пункт в этом списке — хакеры.
В начале 2023 года хакеры получили доступ ко внутренней системе обмена сообщениями OpenAI, украв информацию, связанную с разработками в области искусственного интеллекта. Это событие оставалось в тайне, компания не сообщила о нём публично.
Два человека, осведомлённые об инциденте, сообщили The New York Times, что руководители OpenAI решили не раскрывать информацию о взломе, поскольку информация о клиентах или партнёрах не была скомпрометирована. Компания также не сообщила о взломе в полицию или ФБР.
OpenAI заявила Business Insider, что компания «выявила и устранила основную проблему безопасности», которая привела к взлому. Компания заявила, что хакером было частное лицо без связей с правительством, и что ни один репозиторий исходного кода не был затронут.
Взлом вызвал обеспокоенность внутри и за пределами компании, поскольку безопасность OpenAI считается слишком слабой, что делает её уязвимой.
В то время как США лидируют в мировой гонке вооружений ИИ, Китай не сильно отстает. Американские чиновники считают использование ИИ Китаем серьёзной потенциальной угрозой безопасности. Поэтому информация о том, что данные и системы OpenAI являются легкодоступными для злоумышленников, вызывает беспокойство.
Сотрудники внутри компании также выразили обеспокоенность по поводу внимания к безопасности. Леопольд Ашенбреннер, бывший член совета директоров OpenAI, сказал, что компания уволила его в апреле после того, как он отправил служебную записку с подробным описанием «серьёзного инцидента безопасности». Он охарактеризовал безопасность компании как «вопиюще недостаточную» для защиты от кражи иностранными субъектами. OpenAI отрицает, что уволила Ашенбреннера за то, что он поднял вопрос безопасности.
Ашенбреннер был членом команды «супервыравнивания» компании, которая работала над обеспечением безопасной разработки технологии OpenAI. Через месяц после того, как OpenAI уволила Ашенбреннера, ещё двое ведущих членов команды уволились, и команда фактически распалась.
Одним из них был соучредитель и главный ученый OpenAI Илья Суцкевер. Он объявил о своём уходе всего через шесть месяцев после того, как помог возглавить неудавшееся увольнение генерального директора OpenAI Сэма Альтмана, отчасти из-за разногласий между ними по поводу безопасности технологии. Через несколько часов после того, как Сусткевер объявил об уходе, ушёл и его коллега Ян Лейке.
После того, как драма утихла, в прошлом месяце OpenAI создала новый комитет по безопасности и защите, добавив бывшего директора АНБ Пола Накасоне в качестве руководителя группы. Накасоне, теперь самый новый член совета OpenAI, является бывшим главой Киберкомандования США — подразделения кибербезопасности Министерства обороны.
Хотя присутствие Накасоне свидетельствует о том, что OpenAI относится к безопасности более серьёзно, его назначение также не обошлось без споров. Эдвард Сноуден, американский информатор, который в 2013 году раскрыл секретные документы, описывающие правительственную слежку, написал в посте на X, что найм Накосоне был «расчётливым предательством прав каждого человека на Земле».