ZipNada는 이렇게 작성합니다. 새로운 연구에 따르면 ChatGPT와 같은 대규모 언어 모델(LLM)은 명시적인 지시가 없는 경우 독립적으로 학습하거나 새로운 기술을 획득할 수 없다는 것을 보여줍니다. 이러한 모델은 언어를 생성하는 데 탁월하지만, 존재론적 위협을 초래할 가능성이 낮습니다. 그러나 AI의 오용, 예를 들어 가짜 뉴스를 생성하는 것은 여전히 주의가 필요합니다. 오늘 발표된 62nd Annual Meeting of the Association for Computational Linguistics (ACL 2024) 회의 일부로 출판된 이 연구는 LLM이 언어에 대한 숙달도를 갖추고 명령을 따르는 능력이 있지만 새로운 기술을 마스터하는 데 있어 명시적인 지시가 필요하다는 것을 보여줍니다. 이렇게 되면 이러한 모델은 기본적으로 제어 가능하고 예측 가능하며 안전합니다. "이러한 AI가 인류에 대한 위협이라고 하는 지배적인 내러티브는 이러한 기술의 대중적 채택 및 개발을 방해하고 실제로 우리의 관심이 필요한 문제에서 주의를 돌립니다."라고 컴퓨터 과학자이자 버스 대학교의 Dr. Harish Tayyar Madabushi는 말했다. Iryna Gurevych 교수는 다음과 같이 추가했습니다. "... 우리의 결과는 AI가 전혀 위협이 아니라는 것을 의미하지 않습니다. 오히려 우리는 LLM의 복잡한 생각 기술이 특정 위협과 관련된 증거를 지원하지 않는다는 것을 보여주는 반면, 우리는 LLM의 학습 과정을 매우 잘 제어할 수 있습니다. 따라서 향후의 연구는 모델이 가짜 뉴스를 생성하는 등 다른 위험에 초점을 맞출 것입니다."
slashdot.org
New Research Reveals AI Lacks Independent Learning, Poses No Existential Threat
Create attached notes ...