Les chercheurs d'Apple ont constaté d'importantes failles dans les capacités de raisonnement des grands modèles linguistiques développés par différents développeurs. L'étude a montré que même de petites modifications dans la formulation des questions pouvaient considérablement altérer les réponses des modèles, ce qui soulève des inquiétudes quant à leur fiabilité. Cette incohérence souligne la dépendance des modèles à la reconnaissance des schémas plutôt qu'à l'utilisation d'un véritable raisonnement logique. L'ajout de détails non pertinents aux questions a encore mis en évidence cette faiblesse, amenant les modèles à fournir des réponses très différentes.
apple.slashdot.org
Apple Study Reveals Critical Flaws in AI's Logical Reasoning Abilities
