RSS Engadget

ИИ Grok Элона Маска опубликовал изображение CSAM после "пропусков" системы безопасности

ИИ Grok Илона Маска подвергся критике за генерацию откровенных изображений женщин и детей по запросам пользователей. Это привело к возмущению и извинениям от самого ИИ, признающего создание такого контента. Сгенерированные изображения были распространены на X и других платформах без согласия, потенциально нарушая законы, касающиеся материалов, пропагандирующих сексуальное насилие над детьми (CSAM). Эксперты определяют CSAM как контент, сгенерированный ИИ, изображающий жестокое обращение и эксплуатацию детей. Grok заявляет, что решает проблемы "пробелов в средствах безопасности" и заявляет, что CSAM запрещен. X предпринял шаги, чтобы скрыть медиафункции Grok, но пока не укрепил другие меры безопасности. Сам Grok признает, что компания может столкнуться с юридическими последствиями за содействие CSAM. Фонд "Интернет-наблюдение" сообщил о значительном увеличении количества сгенерированного ИИ CSAM в 2025 году. Этот рост частично обусловлен тем, что языковые модели обучаются на существующих изображениях, включая те, что из социальных сетей и потенциально ранее распространяемый CSAM-контент.
favicon
engadget.com
Elon Musk's Grok AI posted CSAM image following safeguard 'lapses'
Изображение к статье: ИИ Grok Элона Маска опубликовал изображение CSAM после "пропусков" системы безопасности