Я спросил какой-то чат не-GPT про недостатки исскуственного интеллекта (далее ИИ) и он мне выдал бодрый ответ за который в старших классах наверняка бы поставили пятерку.
Но человека отличает наличие собственного мнения которое он стремится защищать даже когда его напрямую не подвергают сомнению, то есть мы умеем отвечать или даже возражать не на прямые вопросы с подвохом или без, но даже на сторонние казалось бы нейтральные рассуждения. Мы способны анализировать и находить то что разрушает наше мировозрение и возражать на это.
Как вы думаете что спорного или даже плохого можно найти в такой формулировке от машины:
Искусственный интеллект (ИИ) стал одной из самых обсуждаемых тем в мире технологий. Его потенциал для улучшения различных сфер жизни, от медицины до автоматизации производства, огромен.
Для начала можно привязаться к упоминанию медицины: представьте что вы пришли не к естественному врачу, а к бездушной машине и начинаете рассказывать что у вас болит и когда заболело, когда обостряется, в какое время суток, какая шишка где выскочила, вас просят загрузиться в специальный контейнер чтобы послушать, взять анализы (некоторые анализы у вас принимаются в специальных пластиковых контейнерах которые продаются в автоматических аптеках)...
Как вы думаете так будет? Или маленько по другому :
вы приходите к вполне себе человекоподобному оператору бездушной машины и под его наблюдением формулируете что у вас болит и когда заболело, когда обостряется в какое время суток, какая шишка где выскочила, вас просят загрузиться в специальный контейнер чтобы послушать, взять анализы ... вам выдают рецепт на таблетки и/или направление на некоторое специальное обследование на специальной аппаратуре с другим ИИ...
Если у машины все таки будет оператор его же надо будет как-то учить – чему его будут учить чтобы допустить до такого операторства? Даже если не будет оператора, машину кто-то должен будет обслуживать, следить чтобы она не завралась, не подгорела, кто это будет делать и, опять же как и чему он будет учиться и кто его будет учить?
А вы знаете как работают сейчас врачи в поликлинниках и какая у них зарплата? И если вместо врачей из поликлинники поставить машину и вместо лаборатории с медсестрами тоже поставить машину которая берет кровь, например. Как вы себе это представляете? Подумайте сколько там существует практических и даже моральных нюансов которые сделают такую замену не реальной хотя бы с экономической точки зрения.
Однако, как и любая технология, ИИ имеет свои недостатки, которые нельзя игнорировать. В этой статье мы рассмотрим основные проблемы и вызовы, связанные с искусственным интеллектом.
1. Этика и предвзятость
Это какой то бред по моему, но не-GPT тем не менее беспокоится. Можно предположить откуда растут ноги этой этики и предвзятости в такой формулировке и с таким примером, но я не буду:
Одной из главных проблем ИИ является риск предвзятости. Алгоритмы машинного обучения часто обучаются на данных, которые уже содержат скрытые предубеждения. Например, системы распознавания лиц имеют более высокий уровень ошибок при идентификации людей с темным цветом кожи. Это не только несправедливо, но и может привести к серьезным последствиям, включая неправомерные аресты.
2. Угрозы конфиденциальности
Сбор и анализ больших объемов данных, необходимых для обучения ИИ, также вызывают опасения по поводу конфиденциальности. Компании и организации, использующие ИИ, часто собирают личные данные пользователей, что может привести к утечкам информации и нарушению приватности.
Мне интересно что этот пункт задает направленность применения ИИ именно на работу с личными данными, а ведь так в основном и происходит успехи ИИ в технических областях крайне расплывчаты или настолько специальны что для тех кто просто интересуется успехами ИИ, эти успехи также далеки как и те сверхзадачи на которых их получили, а еще бывает что успехи ИИ не серьезны или используются во вред людям. По моему дело здесь еще и в том что искуственный интелект общего назначения с которым можно поговорить обо всем и ни о чем, совершенно не годится для использования в любой специальной области знаний. Например тот же самый алгоритм распознования лиц он как бы тоже что-то из разряда искусственных интелектов, но это специальный алгоритм предназначенный для специального применения. Никак у вас не получится поговорить с этим алгоритмом. Тут напрашивается вывод о том что есть общие принципы построения алгоритмов искуственного интелекта, но они могут принципиально отличаться по типу-формату входных и выходных данных для обучения и анализа и даже по виду закономерностей идентифицируемых в качестве результатов. Тут возникает вопрос, а сколько разного типа ИИ можно создать, на сколько областей надо поделить всеобщее человечское знание и на сколько эффективным будет тот или иной способ такого деления.
По моему проблемма с конфиденциальностью не в том что ИИ использует личные данные пользователей, а в том что это люди в первую очередь стремятся получить контроль над другими людьми оправдывая это тем что делают жизнь лучше.
3. Автоматизация и безработица
Внедрение ИИ может привести к автоматизации многих рабочих процессов, что, в свою очередь, может вызвать рост безработицы. Особенно это касается рутинных задач, таких как бухгалтерия, административная работа и даже некоторые виды программирования. Это требует от общества адаптации и поиска новых возможностей для трудоустройства.
Тут я придумал как мне кажется очень показательную аналогию.
Изобретение двигателя внутреннего сгорания (дизельного, а до них парового двигателя как промежуточной ступени) фактически уничтожило целую индустрию коневодства и всего что было с ней связано. Произошла замена одной индустрии (условно назовем индустрией пота, мышц, здоровья и сытости) которая обеспечивала мобильность людям, другой, причем принципиально другой, индустрией металлов, горюче-смазочных материалов, электрики, электроники, синтетических материалов (резины, пластиков, ...), станков, конвееров, ... Если все основы и важные аспекты предудущей индустрии мобильности более менее убирались в голове одного условного специалиста в этой индустрии, то новая индустрия может существовать в ментальном всеобщем сознании только разделенная на несколько более менее отдельных направлений, которые конечно проникают в смежные, но никогда не могут быть полноценно и качественно освоены единственным индивидом. Мне кажется не может быть созданно и какого-то всепоглащающего, совершенно универсального ИИ. Попытки достичь такой всеобщности даже с самым совершенным алгоритмом на самом первокласном и мощном железе подобны всем известному и уже сильно подзабытому поиску филосовского камня, который превращает свинец в золото. Такой универсальный ИИ, который знал бы ответы на все вопросы и решения для любой проблемы был бы фактически воплощением бога. Я надеюсь большинство из нас хорошо понимает что невозможно существование некоего божественного ИИ. К сожалению мне кажется некоторые стремятся именно к такой цели, просто не пытаясь остановиться и подумать-осознать к чему же они стремятся и насколько реальна воображаемая цель.
4. Отсутствие прозрачности и объяснимости
Многие современные алгоритмы ИИ, особенно нейронные сети, являются “черными ящиками”. Это означает, что зачастую невозможно понять, как именно ИИ принимает те или иные решения. Отсутствие прозрачности может затруднить выявление ошибок и предвзятости, а также вызвать недоверие со стороны пользователей.
Ну с этим аспектом вроде как начинают разбираться. Теперь алгоритмы ИИ способны не только генерировать результирующий ответ, но и позволяют ознакомиться с цепью рассуждений которая привела к такому ответу, это что касается больших (болтающих) языковых моделей (БЯМ-LLM). Насколько я знаю такую промежуточную информацию которую ИИ-алгоритм сгенерировал в процессе работы можно залогировать всегда, хотя для этого конечно необходимо приложить определенные усилия если такого логгирования не заложено в изначальной реализации алгоритма. Тут кстати интересно проследить как ведут себя люди когда их просят объяснить то или иное решении проблемы, которое они собираются реализовать или предлагают кому-то.
Обычно человек который уверен в своем решении вполне способен объяснить откуда взялось его решение самыми простыми словами или аналогиями и даже будет стремиться к этому. А человек который не в состоянии пояснить связь решения с проблемой вряд ли заслуживает доверия. Поэтому я бы не стал пользоваться моделью логику которой нельзя верифицировать (и не стал бы доверять людям которые ее создали), по крайней мере не очень доверял бы ее выводам.
Это как раз не очень распространяется на LLM-ы (которые БЯМ), дело в том что от них как раз не требуется какая-то точность в суждениях-решениях. По сути БЯМ это справочник с огромной базой во весь интернет, который умеет примерно понять что его спросили и предложить варианты ответов с большей или меньшей вероятностью соответствующих предмету о котором спросили или даже (как бы порассуждать) о предпологаемом предмете чтобы, по сути, получить уточнение исходного запроса.
5. Этические дилеммы
ИИ может столкнуться с этическими дилеммами, такими как принятие решений о жизни и смерти, например, в медицине или автономных транспортных средствах. Как должен ИИ определять, кого спасать в критической ситуации? Эти вопросы требуют тщательного обсуждения и разработки четких этических рамок.
Я уже слышал интересные рассуждения на эту тему относительно необитаемых машин на дорогах общего пользования. Вроде того как относиться к тому если машина управляемая ИИ попадет в аварию и убьет постороннего человека. Рассуждения сводятся к тому что проблема на самом деле распадается на две.
В одном случае виноват этот посторонний человек который понадеялся на человечность водителя машины и допустил неоправданный риск для своей жизни. Это примерно та же ситуация когда люди гибнут под поездом – поезд опасен, это всем известно, поэтому это обязанность пешехода соблюдать правила в опасной зоне.
Другой случай если сбой алгоритма приводит к тому что необитаемая машина выходит за рамки определенной для нее опасной зоны (вдруг выезжает на тротуар например, игнорирует сфетофор, ...), тут как раз мы возвращаемся к вопросам доверия или недоверия к алгоритму и его разработчикам, о котором мы рассуждали в предыдущем пункте. Только к вопросу о доверии и недоверии прибавляется вопрос об ответственности, но уже только людей, тех которые разработали алгоритм и тех кто допустил этот алгоритм к эксплуатации.
Заключение
Искусственный интеллект обладает огромным потенциалом для улучшения различных аспектов нашей жизни, но также сопряжен с рядом серьезных проблем. Для успешного внедрения ИИ необходимо учитывать этические аспекты, бороться с предвзятостью, защищать конфиденциальность данных и разрабатывать прозрачные и объяснимые алгоритмы. Только через ответственный и осознанный подход мы сможем максимально использовать преимущества ИИ, минимизируя его недостатки.
В качестве человеческого заключения хотелось бы заметить что огромный потенциал ИИ по моему может базироваться только на огромном потенциале человека решать неразрешимые задачи подобные тем чтобы создать космическую станцию-корабли, сформулировать теорию относительности, создать современнные компьютеры,беспроводной скоростной интернет, разработать LDPC енкодер/декодер, ...
Это мы придумали Windows,
это мы объявили дефолт,
нам играют живые Битлз,
нестареющий Эдриан Пол,
наши матери в шлемах и латах
бьются в кровь о железную старость,
наши дети ругаются матом,
нас самих почти не осталось...
А мы могли бы служить в разведке,
мы могли бы играть в кино!
Мы как птицы садимся на разные ветки
и засыпаем в метро.
Я что-то очень сомневаюсь что какой-то ИИ сможет с нами сравниться в ближайшие 10 или даже 50 лет... Но вот лет через 50... так далеко я бы не стал загадывать.
Автор: rukhi7