ZipNada skriver: Ny forskning viser at store språkmodeller (LLM) som ChatGPT ikke kan lære uavhengig eller tilegne seg nye ferdigheter uten eksplisitte instruksjoner, noe som gjør dem forutsigbare og kontrollerbare. Studien avviker frykten for at disse modellene skal utvikle komplekse tenkningsevner, og understreker at mens LLM kan generere sofistikert språk, er det usannsynlig at de vil utgjøre eksistensielle trusler. Imidlertid krever potensielt misbruk av AI, som å generere falske nyheter, fortsatt oppmerksomhet. Studien, publisert i dag som del av prosedyrene for det 62. årlige møtet i Association for Computational Linguistics (ACL 2024) - det ledende internasjonale konferansen innen naturlig språkbehandling - avslører at LLM har en overfladisk evne til å følge instruksjoner og utmerke seg i språkferdigheter, men de har ingen mulighet til å mestre nye ferdigheter uten eksplisitte instruksjoner. Dette betyr at de forblir inherent kontrollerbare, forutsigbare og sikre. "Den rådende narrativet at denne typen AI er en trussel mot menneskeheten hindrer den videre utviklingen og adopsjonen av disse teknologiene, og avleder også oppmerksomheten fra de virkelige problemene som krever vår oppmerksomhet," sa Dr. Harish Tayyar Madabushi, datavitenskapsmann ved University of Bath og medforfatter av den nye studien om "emergent abilities" i LLM.
Professor Iryna Gurevych la til: "... våre resultater betyr ikke at AI ikke er en trussel i det hele tatt. Vi viser bare at den påståtte fremkomsten av komplekse tenkningsevner forbundet med spesifikke trusler ikke støttes av bevis, og at vi kan kontrollere læreprosessen for LLM meget godt etter all. Fremtidig forskning bør derfor fokusere på andre risikoer som modellene utgjør, som deres potensielle bruk til å generere falske nyheter."
slashdot.org
New Research Reveals AI Lacks Independent Learning, Poses No Existential Threat
Create attached notes ...