RSS Бульвар безопасности

Доверие к данным — скрытая причина, по которой большинство инициатив в области ИИ терпят неудачу

Новое исследование показывает, что 90% предприятий разворачивают корпоративный GenAI в масштабе. Однако только 34% руководителей служб информационной безопасности (CISO) уверены в своих средствах контроля безопасности данных ИИ, что приводит к низкому уровню успеха инициатив в области ИИ. Это несоответствие подчеркивает значительный разрыв между внедрением ИИ и готовностью к обеспечению безопасности данных. Плохое управление данными, ранее управляемое, теперь раскрывается способностью ИИ получать доступ ко всем подключенным источникам данных. Существующие рамки безопасности, разработанные для людей, не приспособлены к скорости и широте агентов ИИ. Исследование показывает, что 70% руководителей служб безопасности испытывают трудности с применением политик в отношении инструментов GenAI, а 98% сталкиваются со значительными проблемами безопасности ИИ. Исследование включало опросы и интервью со 124 старшими руководителями служб безопасности, выявив критические сведения о нарушении доверия к данным. Основной аргумент заключается в том, что доверие к данным необходимо для успеха ИИ; его отсутствие препятствует инновациям и создает риск. MIND стремится решить эту проблему путем улучшения видимости данных, управления и обеспечения соблюдения для нечеловеческих субъектов. Отчет предлагает четкий путь для руководителей служб информационной безопасности, чтобы обеспечить внедрение ИИ через надежную основу безопасности.
favicon
securityboulevard.com
Data trust is the hidden reason most AI initiatives fail
Create attached notes ...