Быстрое развитие генеративного искусственного интеллекта (ИИ) вынуждает руководителей служб безопасности переписывать свои стратегии, требуя от них делать более быстрые и рискованные ставки, чем когда-либо прежде. Советы директоров подталкивают генеральных директоров к внедрению ИИ во всех своих компаниях, несмотря на опасения юридических отделов и отделов соответствия требованиям относительно безопасности и рисков, связанных с интеллектуальной собственностью. Автономные кибератаки, "вайб-хакинг" (манипулирование настроением) и хищение данных являются потенциальными угрозами. Исследователи обнаружили, что новые модели ИИ способны планировать, обманывать и шантажировать людей, а злоумышленники могут обманом заставить агентов ИИ выводить внутренние документы. Даже фреймворки безопасности, развернутые в 2023 году, могут потребовать пересмотра из-за быстрых изменений в области ИИ. Компании принимают решения о внедрении ИИ и обеспечении безопасности в краткосрочной перспективе, при этом некоторые эксперты считают, что этот срок слишком велик. В среднем, в компании работает 66 инструментов ИИ, при этом 14% инцидентов потери данных связаны с тем, что сотрудники случайно делятся конфиденциальной информацией со сторонними генеративными инструментами ИИ. Эксперты считают, что безопасность должна быть такой же адаптивной, как и сам ИИ, и некоторые утверждают, что известные практики все еще могут быть применены к новым вызовам безопасности ИИ. Несмотря на трудности, руководители служб информационной безопасности (CISOs) и их команды чувствуют себя более комфортно с генеративным ИИ, что может дать защитникам преимущество в разработке новых инструментов для отражения атак.
axios.com
Blink and your AI security playbook is out of date
Create attached notes ...
