L'argument selon lequel les grands modèles de langage (LLM) ne pensent pas vraiment parce qu'ils ne font que prédire le suivant est fauté car le même argument peut être appliqué au cerveau humain. Le cerveau humain est une collection de neurones qui trouve des modèles et génère des réponses. L'argument de la chambre chinoise, qui suggère que les ordinateurs ne peuvent pas vraiment penser parce qu'ils ne comprennent pas ce qu'ils font, est également fauté. L'argument est fauté car il ne reconnaît pas que le cerveau d'un humain parlant chinois est également une "machine chinoise" qui prend en entrée et produit une sortie sans comprendre comment cela se produit. Nos cerveaux sont essentiellement des chambres chinoises" qui produisent une sortie sans que nous sachions comment cela se produit. Nous n'avons aucune idée d'où viennent nos mots, nos phrases ou nos idées, ils sortent simplement de nous à partir d'un endroit mystérieux. La capacité à produire une sortie à partir d'une compréhension se transforme en une "chambre chinoise" où nous jetons une entrée et notre cerveau nous renvoie une sortie sans que nous sachions d'où cela vient. Nous avons oublié que nous n'avons aucune idée d'où viennent notre connaissance, notre compréhension et notre créativité lorsque nous posons des problèmes à notre propre esprit. Pour déterminer si quelque chose peut raisonner, nous devrions décider d'une définition de la raison, donner des problèmes qui nécessitent de la raison pour les résoudre, et voir si cela peut les résoudre, plutôt que de faire des suppositions basées sur la façon dont les humains pensent. En fin de compte, nos cerveaux sont des boîtes noires qui produisent des sorties merveilleuses à travers un vaste réseau de petits nœuds qui s'allument ensemble lorsqu'ils reçoivent une entrée, tout comme les Transformers.
danielmiessler.com
The Chinese Room Problem With the 'LLMs only predict the next token' Argument
Create attached notes ...
