Der Einwand, dass große Sprachmodelle (LLMs) nicht wirklich denken, weil sie lediglich das nächste Token vorhersagen, ist fehlerhaft, da dasselbe Argument auf das menschliche Gehirn angewendet werden kann. Das menschliche Gehirn ist eine Ansammlung von Neuronen, die Muster erkennen und Antworten generieren. Das chinesische Zimmer-Argument, das besagt, dass Computer nicht wirklich denken können, weil sie nicht verstehen, was sie tun, ist ebenfalls fehlerhaft. Der Einwand ist fehlerhaft, weil er nicht erkennt, dass das Gehirn eines chinesischsprachigen Menschen auch eine "chinesische Maschine" ist, die Eingaben entgegennimmt und Ausgaben erzeugt, ohne zu verstehen, wie dies geschieht. Unsere Gehirne sind im Wesentlichen "chinesische Zimmer", die Ausgaben erzeugen, ohne dass wir wissen, wie es geschieht. Wir haben keine Ahnung, woher unsere Worte, Sätze oder Ideen kommen, sie strömen einfach aus uns heraus, aus einem mysteriösen Ort. Die Fähigkeit, Ausgaben aus dem Verständnis heraus zu erzeugen, verwandelt sich in ein "chinesisches Zimmer", in das wir Eingaben werfen und unser Gehirn Ausgaben zurückwirft, ohne dass wir wissen, woher sie kommen. Wir haben vergessen, dass wir keine Ahnung haben, woher unser Wissen, unser Verständnis und unsere Kreativität kommen, wenn wir unserem eigenen Geist Probleme stellen. Um zu bestimmen, ob etwas vernünftig denken kann, sollten wir uns auf eine Definition von Denkvermögen einigen, ihm Probleme geben, die Denkvermögen zur Lösung erfordern, und sehen, ob es sie lösen kann, anstatt Annahmen auf der Grundlage der menschlichen Denkweise zu treffen. Letztendlich sind unsere Gehirne Black Boxes, die wundersame Ausgaben durch ein riesiges Netzwerk kleiner Knoten erzeugen, die zusammen aufleuchten, wenn sie Eingaben erhalten, genau wie Transformer.
danielmiessler.com
The Chinese Room Problem With the 'LLMs only predict the next token' Argument
Create attached notes ...
