БРАЗИЛИЯ ЗАПРЕТИЛА ИИ В ПОЛИТИЧЕСКОЙ АГИТАЦИИ. ПОЧЕМУ НА ЭТО ПОШЛИ И КАК ВЫБОРЫ УЖЕ ПРЕВРАТИЛИСЬ В ДИПФЕЙКОВЫЙ ХАОС
Бразилия неожиданно оказалась в эпицентре эксперимента по обузданию искусственного интеллекта. В октябре в стране пройдут президентские выборы. И в их преддверии власти страны решили заранее ограничить использование нейросетей в политической агитации. Официальная причина – опасения цифрового хаоса, который исказит волеизъявление 156 миллионов избирателей. Нововведения уже вызывают ожесточенные споры.
ТИШИНА – И НИКАКИХ СОВЕТОВ
В начале марта
Высший избирательный суд Бразилии выпустил пакет из 14 законов, который в значительной степени изменил правила политической борьбы в цифровую эпоху.
Одним из самых заметных нововведений стал «день тишины» (вернее, три дня тишины) для нейросетей. За 72 часа до открытия участков и в течение суток после них, то есть на время подсчета голосов, в соцсетях полностью запретили публиковать любой политический контент, сгенерированный с помощью ИИ. Под полный запрет попали чат-боты-советчики. Во время выборов ИИ больше не смогут давать людям советы, за кого следует и не следует голосовать, а также оказывать поддержку определенным политическим силам. Владельцев нейросетей обязали блокировать такое общение на территории
Бразилии.
Отдельным пунктом стали ИИ-монтажи с кандидатами-женщинами. Их Высший избирательный суд запретил полностью. Это же ограничение распространилось на все фото и видео с изображением наготы или элементами порнографических материалов.
Чтобы дополнительно усложнить жизнь любителям нейросетей, бразильские власти изменили порядок судебных споров, где фигурирует ИИ-контент. Раньше доказывать факт использования нейросетей должны были истцы. Теперь эту обязанность возложили на самих авторов. Именно они должны будут разъяснять, каким образом создавали контент и использовали ли при этом ИИ.
Нынешние новшества уже не первая попытка
Бразилиа установить контроль за использованием ИИ в электоральном процессе. В 2024 году Высший избирательный суд страны принял 12 резолюций, где впервые упоминался сгенерированный контент. Они, в частности, требовали маркировать все, что создавал ИИ. Также власти полностью запретили использовать дипфейки в избирательных кампаниях. Кандидатам, которые к ним прибегали, угрожали серьезными санкциями вплоть до удаления из избирательных бюллетеней. Если они уже победили, им угрожали отзывом мандата. Впрочем, практика показала, что этих мер оказалось недостаточно.
КЕЙС САН-ПАУЛУ
Бразильские власти столкнулись с серьезным вызовом уже в 2024 году. Во время муниципальных выборов в стране началась настоящая эпидемия ИИ-политики. Штабы кандидатов массово генерировали дипфейки, из-за чего они начали оказывать реальное влияние на избирательный процесс.
Самыми скандальными в этом смысле стали выбора мэра города
Сан-Паулу. Один из кандидатов
Пабло Марсал и его сторонники поставили нейросетевой контент на конвейер. Сначала в сети появился дипфейк, в котором экс-президент
Жаир Болсонару якобы призывал голосовать за Марсала, хотя тот официально поддерживал его соперника, действующего мэра
Рикардо Нунеса. Для своего другого оппонента – левого активиста
Гилерьеме Булоса – политик сгенерировал фейковое медицинское заключение о том, что тот якобы принимает наркотики. Когда суд обратил внимание на злоупотребление,
Марсал пошел на принцип и начал демонстративно генерировать фейковые видео без специальных плашек.
По итогу разбирательств все опубликованные материалы кандидата обязали удалить, а заодно назначили ему крупный штраф. Сама кампания для Марсала, к слову, закончилась плачевно: во время дебатов он перегнул с насмешками над оппонентом и получил стулом по голове. На самих выборах он занял лишь третье место.
Досталось на выборах и социалистке
Табате Амарал. За две недели до первого тура в социальных сетях начали распространяться фотографии с ее откровенными дипфейками. На одном снимке
Амарал показывала язык, украшенная кроличьими ушами а-ля
Playboy, на другом – полулежала на диване в купальнике. Экспертиза показала, что материалы с вероятностью 97,7 % были сгенерированы нейросетью. Сама
Амарал назвала произошедшее попыткой уничтожить её кампанию через унижение и подала в суд, но расследование растянулось на месяцы, а фейки продолжали циркулировать в закрытых группах.
ВЗРЫВ ПОЛИТИЧЕСКОГО ИИ
По данным исследовательского проекта
Desinformante, помимо
Сан-Паулу на муниципальных выборах 2024 года зафиксировали не менее пяти эпизодов с «дип-нюд» – фальшивыми обнаженными изображениями женщин-кандидатов. А общее число выявленных дипфейков в предвыборной агитации только в трех штатах перевалило за несколько десятков инцидентов.
С тех пор ситуация заметно ухудшилась. Факт-чекинговая организация
Observatório Lupa провела собственное исследование и выяснила, что в период с 2024 по 2025 год количество ИИ-фейков в
Бразилии выросло на 308 %. Причем если в 2024-м их создавали преимущественно в мошеннических целях, то в 2025-м почти 45 % таких материалов имели четкий идеологический подтекст.
К настоящему моменту проблема достигла масштабов национального кризиса доверия. Информационные атаки с использованием ИИ фиксируются в отношении всех ключевых политиков страны. Так, в 2025 году в
Бразилии произошло 36 инцидентов с распространением фейков про действующего президента
Лулу да Силву. В 33 случаях главным героем дипфейков был его соперник
Жаир Болсонару. В случае с Лулой да Силвой злоумышленники манипулировали его возрастом и здоровьем (да Силве 80 лет).
Болсонару представляли агентом международных организаций, желающих
Бразилии зла. Также порядка 30 фейков были направлены против председателя
Высшего избирательного суда Александра де Мораеса.
На проблему использования ИИ обращал внимание и сам
Лула да Силва. Выступая на саммите
AI Impact Summit в
Нью-Дели в феврале 2026 года, президент
Бразилии назвал дезинформацию на базе нейросетей главной угрозой демократическим системам.
ПАЛКА О ДВУХ КОНЦАХ
Несмотря на благие намерения, меры уже подвергаются жесткой критике как из-за технических сложностей реализации, так и из-за пробелов в самом законодательстве. В частности, вопросы вызывает требование к чат-ботам отключать политические рекомендации на время избирательного процесса. Исследователь
Института технологий и общества Жоан Виктор Арчегас отметил, что для этого технологическим корпорациям придется фактически создавать отдельную версию модели только для
Бразилии, но для них это слишком дорого и неэффективно.
Вторая проблема – это сам объект нового законодательства. Власти
Бразилии прописали, что делать с дипфейком после его появления. При этом регуляции никак не затрагивают компании, чьи нейросети этот контент, собственно, и производят. По мнению юриста
Фернандо Нейссера, в таком случае вся ответственность за распространение фейк-контента ложится на социальные сети. Но у них самих зачастую не хватает инструментов, чтобы в режиме реального времени определять, какой материал настоящий, а какой сгенерировала нейросеть.
Нейссер считает, что самый лучший выход из ситуации – наладить отношения между властями и разработчиками ИИ. Однако к нынешнему избирательному циклу бразильцы уже не успеют это сделать.
Кроме того, остается лазейка в виде так называемой искусственной амплификации. Это когда контент не создают с помощью нейросетей, но ботов под их управлением используют, чтобы искусственно накручивать охваты того или иного контента. Таким образом, формально законы Бразилии не нарушаются. Однако ИИ все равно используют, чтобы манипулировать общественным мнением.
ЛУЛА В ВЫИГРЫШЕ
Для политических реалий
Бразилии образца 2026 года новое законодательство, несомненно, в большей степени отвечает интересам нынешнего президента
Лулы да Силвы. На международной арене политик уже давно позиционирует себя как главного борца за «человекоцентричный ИИ» и против «концентрации власти в руках нескольких корпораций».
Новые правила более чем отвечают его политической платформе. К тому же они дают бразильскому правительству рычаги влияния на зарубежные компании. Судебная система страны, которая будет заниматься регулированием, исторически склоняется к левому спектру политики. К нему принадлежит и сам
Лула да Силва. Следовательно, у него на руках будет рабочий инструмент, который позволит требовать от платформ удалять контент, который в Бразилиа посчитают спорным.
К тому же законодательство создает потенциальные проблемы для бразильской правой оппозиции. Она традиционно сильнее в молодежной среде и чаще используют альтернативные способы донесения информации, чтобы обойти традиционные СМИ. Ограничения для политического ИИ фактически связывают их по рукам и ногам, ведь позволить себе длительные судебные тяжбы могут далеко не все политики.
Бразилия приближается к октябрьским выборам с самым строгим в
Западном полушарии набором ограничений на использование ИИ в политике. Успех эксперимента будет зависеть от того, смогут ли судьи убедить
OpenAI или
Google изменить работу своих алгоритмов для 213-миллионной страны. Если да, мир увидит модель быстрого судебного реагирования на вызовы нейросетей. Если нет,
Бразилия станет полигоном, где технологический прогресс в очередной раз обгонит право.
Виталий Рюмшин