Еще недавно казалось, что искусственный интеллект может пойти на пользу демократии. В ходе исследовательских экспериментах чат-боты демонстрировали способность спокойно и аргументированно спорить с конспирологами в соцсетях. Они разбирали мифы про «химтрейлы» или плоскую Землю, апеллируя разумными фактами.
Однако два новых исследования, как пишет колумнист
Bloomberg Парми Олсон, показали обратную сторону прогресса ИИ, которая вызывает тревогу: современные ИИ-модели все лучше убеждают людей и нередко в ущерб правде.
Ключ к этому эффекту – риторический прием в дебатах под названием «галоп Гиша». Он назван в честь американского креациониста
Дуэйна Гиша и означает тактику, при которой собеседника заваливают лавиной аргументов, цифр и утверждений. Они сыплются на него так быстро, что проверять и опровергать их по одному практически невозможно.
Языковые модели вроде
GPT-4o легко перенимают эту стратегию, говорится в исследовании. Когда их просили убедить человека, например, в вопросах финансирования здравоохранения или миграционной политики, делая упор на факты и информацию, бот за десять минут выдавал около 25 различных утверждений. Такие результаты получили ученые из
Оксфордского университета и
Лондонской школы экономики. Они протестировали 19 ИИ-моделей почти на 80 тыс. участников – это на сегодня, вероятно, самое масштабное исследование политического убеждения с помощью ИИ.
Эффект оказался впечатляющим. Как говорится в публикации журнала
Science, боты убеждали все лучше и лучше. Другое исследование, вышедшее в
Nature, подводит к выводу, что в целом чат-боты в десять раз эффективнее телевизионной рекламы и других традиционных медиа, когда речь идет об изменении отношения к политическому кандидату. Но у этой эффективности есть своя цена. Авторы статьи в Science обнаружили, что, когда ИИ настраивали на перегрузку пользователя информацией, точность фактов значительно падала: в случае GPT-4 она снизилась с 78 % до 62 %.
Быстрые дебаты за последние годы стали отдельным жанром на YouTube. Их популяризировали такие инфлюенсеры, как Бен Шапиро или Стивен Боннелл. Этот формат сделал политику более зрелищной и понятной для молодой аудитории. Но одновременно с этим он подталкивает к радикализации и распространению дезинформации, потому что ставка делается на шоу и эффектные моменты, а не на проверку фактов.
Может ли ИИ, освоивший «галоп Гиша», усугубить эту проблему? Все зависит от того, смогут ли пропагандистские боты напрямую разговаривать с людьми. Советник избирательной кампании или экологической организации не может просто перепрошить сам
ChatGPT, которым еженедельно пользуются около 900 млн человек. Зато он может дообучить базовую языковую модель и встроить ее, например, на сайт под видом службы поддержки. Или запустить рассылку по SMS, вовлекая избирателей в диалог.
По оценкам, компания со средним бюджетом способна развернуть такую систему за несколько недель, потратив на вычисления около 50 тыс. долларов. Главная сложность в том, чтобы заставить людей общаться с ботом продолжительное время. Исследование
Science показало, что статичный текст на 200 слов почти не влияет на мнение. Реальный эффект давал именно диалог около десяти минут (или семь обменов репликами). Причем этот эффект оказался устойчивым: переубежденные участники эксперимента не изменили взгляды даже спустя месяц.
Британские исследователи предупреждают, что любой, кто захочет продвигать свою идеологию, провоцировать политическую нестабильность или расшатывать политические системы, может использовать для этого закрытые или, что еще дешевле, открытые ИИ-модели. Их работа наглядно показала, насколько обезоруживающе убедительным может быть искусственный интеллект. В то же время есть важная оговорка: участников эксперимента пришлось привлекать за деньги.
Хочется верить, что запуск подобных ботов через сайты и мессенджеры, в обход крупных платформ вроде
OpenAI или
Google, не позволит недобросовестным игрокам всерьез исказить политическую дискуссию.
Перевод Ивана Коновалова
Иллюстрация: «За рубежом», Leonardo.ai