RSS Help Net Security

LLM меняют свои ответы в зависимости от того, кто спрашивает

ИИ-чат-боты могут выдавать неравные ответы в зависимости от того, кто задает вопрос. Новое исследование Центра конструктивной коммуникации Массачусетского технологического института показывает, что большие языковые модели (LLM) предоставляют менее точную информацию, увеличивают частоту отказов и иногда используют другой тон, когда пользователи кажутся менее образованными, менее свободно владеющими английским языком или из определенных стран. Анализ производительности на TruthfulQA между «враждебными» и «невраждебными» вопросами. (Источник: MIT) Команда оценила GPT-4, Claude 3 Opus и Llama 3-8B, используя…
favicon
helpnetsecurity.com
LLMs change their answers based on who’s asking
Create attached notes ...