Forscher von Apple haben erhebliche Mängel in den logischen Fähigkeiten großer Sprachmodelle verschiedener Entwickler festgestellt. Die Studie zeigte, dass selbst kleine Änderungen in der Fragestellung die Antworten der Modelle drastisch verändern konnten, was Bedenken hinsichtlich ihrer Zuverlässigkeit aufwirft. Diese Inkonsistenz unterstreicht die Abhängigkeit der Modelle von der Erkennung von Mustern anstatt der Verwendung echter logischer Schlussfolgerungen. Das Hinzufügen irrelevanter Details zu Fragen hat diese Schwäche weiter aufgezeigt, da die Modelle daraufhin völlig unterschiedliche Antworten lieferten.
apple.slashdot.org
Apple Study Reveals Critical Flaws in AI's Logical Reasoning Abilities
