大規模言語モデル(LLM)が真に思考をしていないのは、単に次のトークンを予測しているだけだからである、という議論は、同じ議論が人間の脳にも適用できるため、欠陥がある。人間の脳は、パターンを見つけ、応答を生成するニューロンの集まりである。コンピューターは何をしているのか理解していないので、真に思考できないという中国語部屋の議論も欠陥がある。この議論は、中国語を話す人間の脳も、入力を受け取り、出力を生成する「中国語マシン」であり、どのようにしてそれが起こるのかを理解していないことを認識していないため、欠陥がある。私たちの脳は、どのようにしてそれが起こるのかを知らずに、出力を生成する「中国語部屋」である。私たちの言葉、文、またはアイデアはどこから来ているのか、ただ私たちから流れ出る、ある神秘的な場所から来ている。理解から出力を生成する能力は、「中国語部屋」に変わり、入力を投げ込むと、私たちの脳はどこから来ているのかわからない出力を返す。私たちが自分の心に問題を提起するとき、私たちがどこから知識、理解、創造性が来ているのかを忘れている。何かが推論できるかどうかを判断するには、推論の定義を決め、推論が必要な問題を与え、それを解決できるかどうかを見てみるべきであり、人間がどのように考えるかという仮定に基づいて判断すべきではない。最終的に、私たちの脳は、入力を受け取ったときに小さなノードが一緒に点灯する、黒い箱であり、トランスフォーマーと同様に、素晴らしい出力を生成する。
danielmiessler.com
The Chinese Room Problem With the 'LLMs only predict the next token' Argument
