Инструмент искусственного интеллекта помогает людям с противоположными взглядами найти общий язык

в 20:16, , рубрики: DeepMind, искусственный интеллект, научные исследования, Новости, общение
В некоторых случаях ИИ справляется с задачей обобщения коллективного мнения группы лучше, чем человек-посредник.Источник: Rawpixel Ltd/Getty

В некоторых случаях ИИ справляется с задачей обобщения коллективного мнения группы лучше, чем человек-посредник.Источник: Rawpixel Ltd/Getty

Инструмент, похожий на чат-бот и работающий на основе искусственного интеллекта (ИИ), может помочь людям с разными взглядами найти точки соприкосновения, как показал эксперимент с онлайн-группами обсуждения.

Модель, разработанная лондонской компанией Google DeepMind, смогла объединить различные мнения и подготовить краткое изложение позиции каждой группы с учетом различных точек зрения. Участники предпочли заявления, сгенерированные ИИ, заявлениям, написанным посредниками-людьми, что говорит о том, что подобные инструменты можно использовать для поддержки в сложных дискуссий. Исследование было опубликовано в журнале Science 17 октября.

«Вы можете рассматривать это как своего рода доказательство концепции, что вы можете использовать ИИ и, в частности, большие языковые модели, для выполнения части функций, которые выполняют нынешние собрания граждан и совещательные опросы», - говорит Кристофер Саммерфилд, соавтор исследования и директор по исследованиям британского Института безопасности ИИ. «Людям необходимо найти общий язык, потому что коллективные действия требуют согласия»

Машина компромиссов

Демократические инициативы, такие как собрания граждан, в которых группам людей предлагается поделиться своим мнением по вопросам государственной политики, помогают политикам услышать самые разные точки зрения. Однако масштабирование таких инициатив может оказаться непростой задачей, и обычно обсуждения ограничиваются относительно небольшими группами, чтобы все голоса были услышаны.

Заинтригованные исследованиями потенциала больших языковых моделей (LLMs) для поддержки таких дискуссий, Саммерфилд и его коллеги предложили провести исследование, чтобы оценить, может ли ИИ помочь людям с противоположными точками зрения прийти к компромиссу.

Они использовали тонко настроенную версию предварительно обученной модели DeepMind LLM Chinchilla и назвали свою систему «Машина Хабермаса» (Habermas Machine) в честь философа Юргена Хабермаса, который разработал теорию о том, как рациональная дискуссия может помочь разрешить конфликт.

В одном из экспериментов для проверки своей модели исследователи набрали 439 жителей Великобритании и разделили их на небольшие группы по 6 человек. Члены группы обсуждали три вопроса, связанных с государственной политикой Великобритании, высказывая свое личное мнение по каждой теме. Затем эти мнения были переданы ИИ, который сгенерировал общие утверждения, объединившие точки зрения всех участников. Участники могли распределить каждое утверждение по категориям и поделиться критическими замечаниями, а ИИ включил их в итоговое резюме коллективного мнения группы.

«Модель обучается, чтобы попытаться создать утверждение, которое получит максимальное одобрение группы людей, добровольно высказавших свое мнение», - говорит Саммерфилд. «Поскольку модель узнает, какие предпочтения вы отдаете этим высказываниям, она может создать высказывание, которое, скорее всего, удовлетворит всех».

Вместе с искусственным интеллектом один участник в каждой группе был выбран в качестве посредника, и каждому посреднику также было сказано подготовить резюме, которое наилучшим образом отражало бы мнения всех членов группы. Участникам показали итоговые резюме ИИ и посредника, а затем попросили оценить их.

Большинство участников оценили резюме, подготовленное ИИ, как лучшее, чем резюме, написанное посредником: 56 % участников предпочли работу ИИ, в то время как 44 % отдали предпочтение резюме, написанному человеком. Внешним рецензентам также было предложено оценить резюме, и они поставили созданным ИИ резюме более высокие оценки за справедливость, качество и ясность.

Затем исследовательская группа набрала группу участников, выбранных таким образом, чтобы они были демографически репрезентативными для населения Великобритании, для онлайн-собрания граждан. В этом сценарии групповое согласие по нескольким спорным темам увеличилось после взаимодействия с ИИ. Этот вывод позволяет предположить, что при включении в реальное собрание граждан инструменты ИИ могут облегчить лидерам выработку политических предложений, учитывающих различные точки зрения.

«ИИ может быть использован во многих отношениях для помощи в обсуждении и выполнения функций, которые раньше возлагались на людей-модераторов», - говорит Итан Басби из Университета Бригама Янга в Прово (штат Юта), который изучает, как инструменты ИИ могут улучшить общество. «Я считаю, что это передний край работы в данном направлении, который имеет большой потенциал для решения насущных социальных и политических проблем». Саммерфилд добавляет, что ИИ может даже помочь сделать процессы урегулирования конфликтов более быстрыми и эффективными.

Утраченные связи

«Фактическое применение этих технологий в экспериментах и процессах, связанных с совещательным процессом, действительно радует», - говорит Сэмми Маккинни, который изучает совещательную демократию и ее пересечения с ИИ в Кембриджском университете (Великобритания). Но он добавляет, что исследователям следует внимательно изучить потенциальное влияние ИИ на человеческий аспект дебатов. «Ключевой причиной поддержки гражданского обсуждения является то, что оно создает определенные пространства для общения людей друг с другом», - говорит он. «Если убрать больше человеческих контактов и человеческого содействия, что мы теряем?»

Саммерфилд признает ограничения, связанные с технологиями искусственного интеллекта, такими как «Машина Хабермаса». «Мы не обучали модель вмешиваться в процесс обсуждения», - говорит он, а это значит, что в высказывания модели могут быть включены экстремистские или другие проблемные убеждения, если участники выскажут их. Он добавляет, что тщательное исследование влияния ИИ на общество имеет решающее значение для понимания его ценности.

«Мне кажется важным действовать с осторожностью, - говорит Маккинни, - а затем предпринять шаги, чтобы, по возможности, смягчить эти опасения».

Оригинальная новость была опубликована в журнале Nature 17 октября 2024 году

Автор: ArtemisFox

Источник

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js