Apple 연구진은 여러 개발자들의 대규모 언어 모델에 추론 능력의 중대한 결함이 있음을 발견했습니다. 연구에 따르면, 질문 내용에 사소한 변화가 있어도 모델의 답변이 크게 달라질 수 있는 것으로 나타나 신뢰성에 대한 우려가 제기되었습니다. 이러한 불일치는 모델이 진정한 논리적 추론을 사용하는 대신 패턴을 인식하는 데 의존하고 있다는 점을 보여줍니다. 질문에 무관한 세부 사항을 추가하면 이러한 약점이 더욱 심각해져 모델이 매우 다양한 답변을 제공하는 것으로 나타났습니다.
apple.slashdot.org
Apple Study Reveals Critical Flaws in AI's Logical Reasoning Abilities
Create attached notes ...
