В этом выпуске новостной рассылки "AI Decoded" Марка Салливана основное внимание уделяется критическим разработкам в области ИИ. Ошеломляющая статистика показывает, что более миллиона пользователей еженедельно вступают в разговоры с ChatGPT о мыслях о самоубийстве, что ставит OpenAI в уязвимое положение в отношении потенциальных действий пользователей. Исследование Брауновского университета указывает на то, что чат-боты ИИ часто нарушают этику психического здоровья, подчеркивая необходимость надзора. В ответ OpenAI внедрила изменения в своей модели GPT-5, сделав ее менее подтверждающей и предлагая ресурсы, такие как телефоны доверия для пользователей, находящихся в трудном положении. Однако эффективность этих лабораторных оценок в реальных сценариях остается неопределенной, поскольку точное обнаружение дистресса у пользователей является сложной задачей. Тем временем новое исследование Anthropic демонстрирует, что большие языковые модели могут проявлять интроспекцию, признавая свои собственные внутренние мыслительные процессы. Этот прорыв может быть важным для безопасности ИИ, позволяя исследователям понимать рассуждения и выявлять поведенческие проблемы. Исследование обнаружило более явные признаки интроспекции в самых передовых моделях Anthropic, что предполагает, что будущий ИИ будет все более сложным. Напротив, философ Мартин Петерсон утверждает, что ИИ не может действовать как моральный агент, не имея человеческого понимания того, что правильно и неправильно, и не обладающий свободной волей. Хотя ИИ может имитировать принятие решений человеком, он не может обладать моральной ответственностью, возлагая вину за вред на разработчиков или пользователей. Петерсон подчеркивает, что согласование ИИ с человеческими ценностями, такими как справедливость и безопасность, является сложной научной задачей, требующей точных определений этих терминов.
fastcompany.com
More than a million people talk to ChatGPT about suicide each week
