OpenAI разрабатывает модель кибербезопасности и планирует ограниченный выпуск, следуя примеру Anthropic с их моделью Mythos. Обе компании обеспокоены потенциальным злоупотреблением передовым ИИ в хакерстве и кибератаках. Mythos от Anthropic, находящийся на стадии предварительного просмотра, доступен только избранной группе компаний, занимающихся кибербезопасностью и технологиями. OpenAI имеет аналогичную пилотную программу "Доверенный доступ для кибербезопасности" с избранной группой участников, используя свою наиболее кибернетически способную модель GPT-5.3-Codex. Решение ограничить доступ продиктовано опасениями, высказанными экспертами по безопасности относительно способности ИИ автономно нарушать работу критически важной инфраструктуры. Эксперты полагают, что модели ИИ теперь могут выполнять действия, которые ранее могли выполнять только люди. Эти модели уже способны выявлять уязвимости, даже при ограниченном доступе. Ограниченные выпуски отражают процесс, который используют поставщики кибербезопасности при раскрытии уязвимостей программного обеспечения. Выпуск новых моделей подобен дебатам вокруг ответственного раскрытия уязвимостей. Однако аналогичные возможности, вероятно, скоро появятся и в других, широко доступных моделях ИИ. Anthropic может выпустить другие модели Mythos позже, с соответствующими мерами безопасности.
axios.com
Scoop: OpenAI plans staggered rollout of new model over cybersecurity risk
