В последнее время тема искусственного интеллекта стала в СМИ одним из мэйнстримов и нас все чаще пугают пророчествами от многих известных людей, как например, от Стивена Хокинга (вселенная ему пухом) или Илона Маска, об опасности его развития. Подобная алармистская риторика подразумевает, что собственно искусственный интеллект, во-первых, станет субъектом, а во-вторых, будет иметь негативные намерения в отношении как отдельных людей, так и всего человечества в целом. Вот об этих предположениях давайте и поговорим подробнее.
На текущий момент все системы, включающие искусственный интеллект в каком-либо виде (будь то нейронные сети, экспертные системы и т.д.), используют его как прикладной инструмент. То есть как некий автомат, у которого есть четко ограниченная область выполняемых действий/задач и, соответственно, потребляемой и выдаваемой информации. В такой форме ИИ не может иметь каких-либо собственных намерений, кроме как заложенных в него конструктивно. А значит это намерения не ИИ-системы, а ее создателей. И, даже если система с таким автоматом-ИИ и сработает так, что причинит вред, то это не будет говорить о злом умысле ИИ, а только лишь о неправильном функционировании системы, причиной которого может быть, например, неисправность, ошибки проектирования системы или неверное обучении ИИ.
Мы попробуем здесь ответить на вопрос как может быть спроектирована ИИ-система и какими свойствами и способностями она должна обладать, чтобы ее уже нельзя было считать просто ИИ-автоматом, а можно было бы рассматривать, как некий субъект.
Итак, чтоб быть субъектом, ИИ-система должна иметь возможность самостоятельно строить оценки поступающей разнородной информации и принимать решения, а также возможность воздействовать в широком диапазоне на окружающую действительность на основании этих оценок и решений. А для того, чтобы иметь негативные, или какие-либо еще, намерения и принимать решения о действиях нужна мотивация («Мотивация, Карл!»). То есть то, что движет субъектом, заставляет его действовать. Соответственно, некая первичная мотивация должна быть заложена в ИИ при его создании. Либо же мы можем ждать ее самозарождение – возможно следующий миллиард лет, как потребовалось для возникновения жизни в аминокислотном супе.
Человек, когда создавал что-то сложное, часто заимствовал технические решения у природы, то есть использовал то, что уже доказало свою работоспособность и эффективность. При создании ИИ-систем мы также можем присмотреться к тому, как устроены мы сами и какие механизмы использованы природой, чтобы сделать нас способными к длительному автономному и (хочется верить) успешному существованию.
Для начала давайте вспомним, какие первичные мотивации есть у всех живых существ, что заставляет их двигаться. Очевидно, что первичных мотиваций всего две: инстинкт самосохранения и инстинкт размножения, то есть либидо. Фактически, эти первые две эволюционные адаптации, которые были проведены естественным отбором, и были созданием жизни из неживой материи. Они же постоянно естественным отбором и поддерживаются– грубо говоря, всё, что не старается сохранить себя и воспроизвести, просто не выживает. Есть теории, говорящие, что подобными свойствами, то есть стремлением к самосохранению и самовоспроизведению, обладает сама информация, как таковая (например, Д. Глик «Информация. История. Теория. Поток», Р. Докинз «Эгоистичный ген»).
В сложных живых существах механизм реализации первичных мотиваций заложен в самой структуре организма (и
Было бы, вероятно, достаточно нетрудно сконструировать ИИ-систему, действующую по похожему алгоритму. Но нам более интересен случай, когда ИИ-система могла бы строить сложные оценки и имела бы более сложную структуру мотиваций, чем первичные. Для того, чтобы понять, как можно было бы это реализовать, давайте рассмотрим, как это происходит у людей, то есть почему люди, имея те же самые первичные мотивации, могут и совершают столь разнообразную деятельность.
Основным способом, которым люди трансформируют первичные мотивации в другую деятельность является сублимация – преломление первичных мотиваций через структуру своих ценностей и соответствующих им целей. А ценности и цели — это понятия сугубо лингвистические, то есть несуществующие вне языка. Действительно, такие вещи как «развитие», «здоровье», «знания» и т.д., это языковые категории, причем для каждого отдельного индивида они могут означать совсем разное. И их отличительным признаком, как известно, является то, что их нельзя «положить в тачку». Ценности у индивида образуют граф, где собственно ценности – это его вершины, а ребрами являются убеждения, связывающие ценности. Например, «здоровье — это счастье» или «чтобы достичь успеха необходимы знания» или «только богатство дает удовлетворение от жизни» — все это связи между ценностями. Таким образом, ценностный граф и является ядром личности индивида.
Преобразуясь через этот ценностный граф, первичные мотивации могут трансформироваться в более сложные и нетривиальные мотивы и цели. Например, человек создает организацию или развивает научную область или проявляет другую творческую активность – все это является реализацией его первичной мотивации к самовоспроизводству. Только воспроизводимые объекты уже не человеческие существа, а конструкции из идей, интересов и убеждений своего создателя. В другом случае, если даже человек просто ходит на работу чтоб зарабатывать деньги, толкает его на это не что иное, как сублимированная мотивация к самосохранению. Резюмируя, можно сказать, что структуры
Тогда, если мы хотим, чтобы ИИ-система была субъектом/личностью и у нее могли возникать мотивации вида «ради развития» или «во имя всеобщего блага» или любой другой не заложенной конструктивно мотивации, она должна обладать, во-первых, первичными мотивациями и, во-вторых, встроенным языком и построенном на базе него графом из ценностей и убеждений. Причем ее первичными мотивациями не обязательно должны, но могут быть самосохранение и размножение.
Кроме того, ИИ-система может обладать такой интересной и полезной эволюционной адаптацией, как самоосознавание, которое состоит из понимания границ между «я» и «не я» и из осознавания результатов собственной мыслительной деятельности (что в современный нейронных сетях реализуется достаточно просто – путем подачи выходного сигнала сети снова на ее входы). Эта эволюционная адаптация очень способствует самосохранению: для существа, не осознающего границ между «я» и «не я», нет и смысла, например, сопротивляться хищнику, пытающемуся откусить у существа конечность, потому что в случае отсутствия таких границ интересы этого хищника также должны быть включены в интересы существа. А осознавание результатов собственной мыслительной деятельности помогает решать задачи итеративно, то есть появляется возможность решать задачи, сложность которых требует вычислительных мощностей больших, чем располагает
Также, в ИИ-систему может быть заложена возможность управлять вектором своей мотивации, каковой способностью обладает (но очень часто не использует) любой субъект homo sapiens. Тут можно даже способность управлять вектором своей мотивации использовать, как критерий разумности: то есть тот, кто не способен или не управляет своей мотивацией, – не разумен.
Как уже где только не было написано (разве что не на заборе), человеческий
В ИИ-системах все эти вспомогательные задачи (если возникнут) могут решаться специализированными устройствами, не требующими столь больших вычислительных мощностей, в то время как нам пока не удалось придумать ничего более подходящего и эффективного для реализации интеллекта, чем нейронные сети.
Поэтому, по очень приблизительным прикидкам, можно рассчитывать на создание ИИ-субъекта с интеллектом эквивалентным человеческому на базе нейронной сети с мощностью порядка 8 миллиардов нейронов. Если считать, что нейрон в среднем связан с 1000 других нейронов и сеть должна функционировать со скоростью до 40 Гц (бета-ритм
При этом такие ИИ-системы могут обладать рядом преимуществ по сравнению с живыми существами. Для начала, в отличие от
И тем не менее, такие ИИ-системы в обозримом будущем будут проигрывать людям в сложности и многофакторности просто в силу того, что нейрон в нервной системе человека сам по себе очень сложный молекулярный механизм, зависящий от огромного числа параметров, в отличие от нейрона современных нейронных сетей, имеющего простую структуру.
Автор: Алексей Куталев