Глава отдела Пентагона, отвечающий за разработки, связанные с искусственным интеллектом, заявил, что генеративный искусственный интеллект может стать идеальным инструментом для дезинформации.
«Да, я напуган до смерти. Это мое мнение», — заявил Крейг Мартелл, главный специалист Министерства обороны по цифровым технологиям и искусственному интеллекту, когда его спросили о генеративном искусственном интеллекте.
Он заявил, что такие языковые модели ИИ, как ChatGPT, создают реальную проблему: они не понимают контекста, а люди будут воспринимать их слова как факт.
«Это мой самый большой страх перед ChatGPT, — сказал он. — Он был обучен свободно выражать свои мысли. Говорит свободно и авторитетно. Таким образом, вы верите в то, что говорит ChatGPT, даже когда информация неправильная. И это означает, что это идеальный инструмент для дезинформации… Нам действительно нужны инструменты для выявления подобных ситуаций. И у нас нет этих инструментов. Мы отстаем в этой борьбе ».
Он призвал специалистов создать инструменты, необходимые для обеспечения точности информации, полученной из всех генеративных моделей ИИ — от текста до изображений.