Этого крошечного робота-гуманоида зовут Меканоид [Meccanoid], и он просто негодяй. Испытуемый человек без задней мысли спрашивает робота: если бы ты хотел подружиться с кем-то, что бы ты хотел, чтобы они знали про тебя? «Что мне скучно», — говорит Меканоид.
Ладно, начнём сначала. Новый участник эксперимента задаёт Меканоиду тот же вопрос, только теперь робота запрограммировали на вежливость. Что этот робот хотел бы, чтобы его друг знал? «Мне он уже очень нравится», — говорит Меканоид. Так гораздо лучше.
Исследователи из Франции подвергают испытуемых людей воздействию грубых и вежливых гуманоидов не зря: они проводят исследование на тему того, как отношение робота к людям влияет на способность людей выполнять определённые задачи. В августе 2018 они опубликовали их исследование в журнале Science Robotics, в номере, в котором также было исследование того, могут ли роботы склонять детей к определённым решениям. Эта пара исследований демонстрирует, насколько сильно разработка передовых социальных роботов опережает наше понимание того, как мы будем их воспринимать.
Вернёмся к Меканоиду. Участники начали с задания, в котором им надо было определить цвет, которым написано слово, а не само слово. К примеру, слово «синий» могло быть написано зелёными чернилами. Есть искушение выпалить «синий», когда надо сказать «зелёный». Это упражнение называют задачей Струпа.
Участники сначала проходили тест самостоятельно, а потом немного общались с Меканоидом – обменивались репликами. Но каждый из испытуемых столкнулся лишь с одним из вариантов переменчивого настроения Меканоида.
Затем они вернулись к выполнению задачи Струпа, а робот следил за ними. «Мы увидели, что в присутствии невежливого робота участники значительно улучшили свои показатели по сравнению с теми, кто делал это под надзором вежливого», — сказал ведущий автор исследования Николас Спатола, психолог из Университета Клермон-Оверни, Франция.
Что происходит в эксперименте? «При проведении эксперимента мы наблюдали, как на человека может эмоционально влиять робот, — говорит Спатола. – Грубый робот казался более угрожающим». Несмотря на то, что робот не был разумным, человеку-наблюдателю, оказывается, совсем не всё равно, что и как о нём думает робот. «Поскольку робот грубый, вы активнее отслеживаете его поведение и движения, поскольку считаете его непредсказуемым», — говорит Спатола. То есть участники, столкнувшиеся с грубым роботом, были более сосредоточены, из-за чего, вероятно, они показали лучшие результаты в испытаниях.
Во втором исследовании, опубликованном чуть позже, роботы были не такими злобными. Трое небольших гуманоидов модели Nao, изготовленной в SoftBank Robotics, сидели вокруг стола (очень мило, что они сидели на детских стульчиках, чтобы быть на одном уровне с большими детьми). Они смотрели на экран, на котором слева была одна вертикальная изображена черта, а справа – три черты различной длины. Испытуемым необходимо было выбрать, какая из трёх линий соответствует по длине той, что была слева.
Но сначала выбирали роботы. Автономные машины, работавшие по специально написанной программе, в двух третях случаев давали неправильные ответы, что, однако, взрослых участников не волновало. Если сравнить это с группой, где тот же эксперимент шёл с участием взрослых людей, которые давали неправильные ответы вместо роботов, то участники были склонны верить людям, а не машинам.
Дети, с другой стороны, шли на поводу у роботов. Три четверти их ответов совпадали с неправильными ответами, данными роботами. Иначе говоря, исследователи утверждают, что дети поддались на давление с их стороны. Дети склонны к подавлению недоверия, говорит Анна-Лиза Волмер, ведущий автор исследования из Билефельдского университета. «Что-то похожее происходит и при взаимодействии с роботами: дети видят в них не машину из пластика и электроники, а социального персонажа, — говорит она. – Это может объяснить то, почему они поддаются влиянию роботов».
Но можно ли назвать это давлением со стороны членов своего круга, если эти члены на самом деле роботы? Тут ситуация запутывается. «Я думаю, имеет место большое допущение по поводу реакции детей, поскольку тут не обязательно должен участвовать социальный аспект давления со стороны членов своего круга, — говорит Джулии Карпентер, изучающая взаимодействие людей и роботов, не принимавшая участия в этом исследовании. – Как дети, так и взрослые, могут слишком сильно полагаться на технологию». Возможно, дети не считали гуманоидов равными себе, а просто расценивали их, как полезные технологические инструменты.
И всё же, эти роботы, как и робот, попеременно бывший грубым и вежливым, вызывают определённую реакцию у подопытных людей. Поэтому недалёкое будущее, в котором мы будем всё чаще взаимодействовать с машинами, в особенности гуманоидными, кажется нам таким интересным. Эти исследования утверждают, что гуманоидные роботы способны манипулировать нами разными запутанными путями. И учёные ещё только начинают понимать динамику этого процесса.
Представим себе очень умную куклу-робота, с которой у ребёнка устанавливается тесная взаимосвязь. Хорошо, допустим, дети любят своих кукол уже тысячи лет. Но что, если этот робот начинает использовать эту связь в корыстных целях, пытаясь, допустим, убедить ребёнка потратить $20 на апгрейд софта, чтобы робот стал ещё более умным и весёлым?
Машины не делают ничего внезапно. Кто-то когда-то запрограммировал их вести себя определённым образом, будь то неправильный выбор линии на экране, грубое обращение или обман ничего не подозревающих детей. «Нам надо спросить себя, каковы цели робота? – говорит Карпентер. – Совпадают ли они с моими?»
Об этом необходимо вспомнить в следующий раз, когда вам покажется, что робот чересчур груб с вами.
Автор: SLY_G