ZipNadaは、新しい研究が大きな言語モデル(LLM)がChatGPTのように、明確な指令がなければ独立して学び、新しいスキルを身に付けられないことを明らかにした。研究はこれらのモデルの複雑な推理能力を発達させる可能性に関する恐れを払拭し、LLMが高度な言語を生成することができるが、存続的な脅威を引き起こす可能性は低いと強調している。ただし、AIの悪用、例えば偽ニュースの生成のような問題にはまだ注意が必要である。この研究は、2024年コンピュータリンゲージストック協会(ACL)第62回年次会議の論文集に掲載されたもので、自然言語処理の国際会議の最高峰会議である。この研究は、LLMが命令に従い、言語の熟達に秀でる能力がありながら、新しいスキルを学びる潜在力がなく、結果的に予測可能で制御可能で安全であることを明らかにした。
"このタイプのAIが人類に対する脅威であるという流行の話が、技術の普及と開発を阻害し、実際の問題に焦点を当てる必要がある問題から注意を逸らす。" バース大学のコンピューターサイエンティストで、新しい研究の共同著者でもあるDr. Harish Tayyar Madabushiは述べている。
Professor Iryna Gurevychは、"...私たちの結果は、AIがまったく脅威でないことを意味するものではなく、特定の脅威に関連する複雑な思考スキルの出現が証明されていないことを示し、LLMの学びのプロセスを非常に制御できることを示す。将来的には、モデルの他のリスク、例えば偽ニュースの生成のようなものに焦点を当てるべきである。"
slashdot.org
New Research Reveals AI Lacks Independent Learning, Poses No Existential Threat
Create attached notes ...