Аргумент о том, что большие языковые модели (LLM) на самом деле не думают, потому что они просто предсказывают следующую лексему, ошибочен, потому что тот же аргумент можно применить и к человеческому мозгу. Человеческий мозг — это совокупность нейронов, которые находят закономерности и генерируют ответы. Аргумент китайской комнаты, который предполагает, что компьютеры не могут по-настоящему думать, потому что они не понимают, что они делают, также ошибочен. Этот аргумент несовершенен, потому что он не признает, что мозг человека, говорящего по-китайски, также является «китайской машиной», которая принимает входные данные и производит выходные данные, не понимая, как это происходит. Наш мозг по сути является «китайскими комнатами», которые производят результат без нашего ведома, как это происходит. Мы понятия не имеем, откуда берутся наши слова, предложения или идеи, они просто вытекают из нас из какого-то таинственного места. Способность получать выходные данные от понимания превращается в «китайскую комнату», где мы добавляем входные данные, а наш мозг отбрасывает выходные данные, и мы не знаем, откуда они берутся. Мы забываем, что понятия не имеем, откуда берутся наши знания, понимание и творчество, когда ставим проблемы перед своим собственным умом. Чтобы определить, может ли что-то рассуждать, мы должны определиться с определением рассуждения, дать ему проблемы, требующие рассуждения для решения, и посмотреть, сможет ли оно их решить, а не делать предположений, основанных на том, как думают люди. В конечном счете, наш мозг — это черные ящики, которые производят удивительный результат через обширную сеть маленьких узлов, которые загораются вместе при получении входных данных, как трансформеры.
danielmiessler.com
The Chinese Room Problem With the 'LLMs only predict the next token' Argument
