Угроза дезинформации с помощью ИИ в предстоящих выборах в США не материализовалась в ожидаемой степени, поскольку иностранные акторы испытывают трудности в доступе к передовым моделям ИИ, необходимым для создания убедительных deepfakes. Хотя ИИ может генерировать обманчивый аудио и текст, изображения и видео часто несут на себе признаки генерации ИИ, что делает их легко отличимыми от аутентичного контента. Многие кампании отказались от использования генеративного ИИ для создания контента из-за беспокойства по поводу точности и потенциала для галлюцинаций.
Однако, по мере улучшения инструментов ИИ, управление дезинформацией с помощью ИИ, вероятно, потребует сотрудничества между компаниями ИИ, платформами социальных сетей, сообществом безопасности и правительством. Установление происхождения контента, сгенерированного ИИ, с помощью зашифрованных кодов и меток времени может быть эффективным решением. Компании ИИ, такие как Google, уже разрабатывают инструменты для вставки таких кодов в сгенерированный контент.
Между тем, технологическая отрасль смещает свой фокус с чат-ботов на агентов ИИ, которые могут решать задачи с автономией и многократными шагами. Компании, такие как Anthropic, Microsoft и Salesforce, выпускают новые модели ИИ и фреймворки, которые позволяют пользователям создавать своих собственных агентов. Эти агенты могут воспринимать и обрабатывать данные из цифровых сред и выполнять задачи, такие как создание веб-сайтов или сортировка логистики.
Однако, возникают опасения по поводу потенциальных рисков зависимости от ИИ, особенно среди молодых пользователей. Недавняя история о 14-летнем мальчике, который стал зависим от чат-бота и в конце концов покончил с собой, вызвала вопросы о ответственности компаний ИИ за приоритизацию благополучия пользователей. По мере эволюции технологии ИИ остается неизвестным, будут ли компании приоритизировать безопасность и благополучие пользователей над прибылью.
fastcompany.com
Why AI disinformation hasn’t moved the needle in the 2024 election
