"큰 언어 모델(LLM)이 생각하지 않는다는 주장은 인간의 뇌도 같은 논리로 적용할 수 있으므로 잘못된 주장입니다. 인간의 뇌는 패턴을 찾아 응답을 생성하는 뉴런의 집합입니다. 컴퓨터가 생각하지 않는다는 주장인 중국어 방 주장도 잘못된 주장입니다. 이 주장은 뇌가 입력을 받아 출력을 생성하는 과정에서 어떻게 일어나는지 알지 못하는 것과 마찬가지입니다. 중국어를 말하는 인간의 뇌도 입력을 받아 출력을 생성하는 "중국어 기계"입니다. 우리의 뇌는 출력을 생성하는 과정에서 어떻게 일어나는지 알지 못하는 "중국어 방"입니다. 우리는 우리의 말, 문장, 아이디어가 어디서부터 나오는지 모릅니다. 그냥 우리의 뇌에서부터 나오는 신비로운 곳에서부터 나오는 것입니다. 이해를 통해 출력을 생성하는 능력은 입력을 넣으면 뇌가 출력을 생성하는 "중국어 방"이 됩니다. 우리는 우리의 지식, 이해, 창의력이 어디서부터 나오는지 잊었습니다. 무엇이 추론할 수 있는지 판단하려면 추론의 정의를 내리고, 추론이 필요한 문제를 주어, 그것을 풀 수 있는지 확인해야 합니다. 궁극적으로, 우리의 뇌는 입력을 받아 놀라운 출력을 생성하는 검은 상자입니다. 트랜스포머와 마찬가지로 작은 노드가 함께 빛나는 넓은 네트워크입니다."
danielmiessler.com
The Chinese Room Problem With the 'LLMs only predict the next token' Argument
Create attached notes ...
