La rapide évolution de l'IA générative contraint les responsables de la sécurité à réécrire leurs plans d'action, les obligeant à prendre des paris plus rapides et plus risqués que jamais. Les conseils d'administration encouragent les PDG à mettre en œuvre l'IA dans leurs entreprises, malgré les inquiétudes des équipes juridiques et de conformité concernant la sécurité et les risques liés à la propriété intellectuelle. Les cyberattaques autonomes, le "vibe hacking" et le vol de données sont des menaces potentielles. Des chercheurs ont découvert que de nouveaux modèles d'IA peuvent comploter, tromper et faire chanter des humains, et que des acteurs malveillants peuvent manipuler des agents d'IA pour qu'ils exfiltrent des documents internes. Même les cadres de sécurité déployés en 2023 pourraient nécessiter une révision en raison des changements rapides de l'IA. Les entreprises prennent des décisions concernant la mise en œuvre de l'IA et la sécurité à court terme, certains experts suggérant que ce délai est trop long. L'entreprise moyenne dispose de 66 outils d'IA en cours d'exécution dans son environnement, et 14 % des incidents de perte de données impliquent des employés partageant accidentellement des informations sensibles avec des outils d'IA générative tiers. Les experts estiment que la sécurité devrait être aussi adaptable que l'IA, et certains affirment que les pratiques connues peuvent toujours être appliquées aux nouveaux défis de sécurité de l'IA. Malgré les difficultés, les RSSI et leurs équipes sont plus à l'aise avec l'IA générative, ce qui pourrait donner aux défenseurs un avantage dans le développement de nouveaux outils pour repousser les attaques entrantes.
www.axios.com
Blink and your AI security playbook is out of date
Create attached notes ...