大規模言語モデル(LLM)は、印象的なコンテキスト内学習能力を示してきましたが、最近の研究では、これらのモデルが単一の推論呼び出し中に複数の、計算的に異なるタスクを同時に実行できるという驚くべき現象を探求しています。この能力は「タスクの重畳(task superposition)」と呼ばれています。研究者は、さまざまなLLMファミリーとスケールを横断してこの現象の経験的証拠を提供し、モデルが1つのタスクを学習するように訓練されていても、この能力が現れることを示しています。研究者は、この能力に対する理論的説明を提供し、LLMが重畳中に内部でタスクベクトルを組み立てる方法を探求しています。研究結果は、LLMの潜在的な能力に関する洞察を提供し、同時にタスクを実行することを可能にするメカニズムに関する疑問を提起しています。研究者は、大規模なLLMが並行してより多くのタスクを解決し、出力分布をより適切に調整できることを発見しました。研究結果は、LLMの性質と同時タスク実行の可能性に関する貴重な洞察を提供しています。しかし、この研究には、タスクの重畳現象の境界または制限に関する包括的な調査が欠けているという限界があります。さらに、LLMが複数のタスクを同時に実行できる範囲と、パフォーマンスに影響を与える要因を調査する研究が行われる可能性があります。研究結果は、LLMの将来の開発と応用に重大な影響を与える可能性があります。
dev.to
LLMs Achieve Parallel In-Context Learning Through Remarkable "Task Superposition" Capability
