Как говорят специалисты по общему искусственному интеллекту (AGI): «Если человеку нечего сказать по существу проблемы AGI, он говорит о проблеме его (без)опасности». Данная проблема гораздо понятнее и ближе широкой аудитории, чем тонкие технические вопросы. По этому вопросу свое мнение может заявить, хоть известный физик, хоть неизвесный хаброжитель. Недавно на эту тему промелькнуло и высказывание Илона Маска об опасности ИИ, пресс-секретарь которого сказал, что вскоре Маск опубликует более подробное мнение об искусственном интеллекте.. И этот ответ оказался не просто словесным, но подкрепленным 10 миллионами долларов.
Распределением этих денег будет заниматься Future of Life Institute (экспертная комиссия которого включает Стюарта Рассела — известного специалиста и автора одного из самых популярных учебников по ИИ), который 22 января откроет портал для подачи заявок на гранты. На сайте этого института размещено также открытое письмо о приоритетности проблемы надежности и полезности (еще не существующего) искусственного интеллекта. Это письмо подписано многие известными специалистами, работающими как в академических, так и коммерческих организациях. Получается, проблема безопасности ИИ волнует уже и людей, которым есть, что сказать и по существу AGI?
Кроме того, такие люди, как Илон Маск, деньгами, пусть и не слишком большими, просто так не разбрасываются. И все же такое предложение выглядит больше как пиар и дань моде. Сомнительно, что проблемой надежности и безопасности ИИ можно заниматься абстрактно, без собственного продвинутого прототипа AGI. Судя по тому, что представляется на конференциях по AGI, у тех людей, которые могут заинтересоваться таким грантом, нет такого прототипа, который было бы уже пора опасаться. А если уж он есть у какой-нибудь корпорации, то вряд ли она этим грантом заинтересуется. Так в чем же тогда его смысл?
Автор: aideus