AI och ML nyheter på svenska

Ny forskning avslöjar att AI saknar självständig inlärning, utgör inget existentiellt hot

ZipNada skriver: Ny forskning visar att stora språkmodeller (LLM) som ChatGPT inte kan lära sig självständigt eller förvärva nya färdigheter utan explicita instruktioner, vilket gör dem förutsägbara och kontrollerbara. Studien avfärdar farhågor om att dessa modeller skulle utveckla komplexa resonemangsförmågor, understrykande att även om LLM kan generera sofistikerad språk, är de osannolika att utgöra existentiella hot. Däremot kräver möjliga missbruk av AI, såsom att generera falska nyheter, fortfarande uppmärksamhet. Studien, publicerad idag som del av förfarandena vid den 62:a årliga mötet i Association for Computational Linguistics (ACL 2024) - det ledande internationella konferensen inom naturligt språkbehandling - visar att LLM har en ytlig förmåga att följa instruktioner och utmärka sig i språkkunskaper, men de har ingen potential att bemästra nya färdigheter utan explicit instruktion. Detta innebär att de förblir grundläggande kontrollerbara, förutsägbara och säkra. "Den rådande narrativet att denna typ av AI är ett hot mot mänskligheten hindrar den breda tillämpningen och utvecklingen av dessa teknologier, och leder också bort uppmärksamheten från de verkliga problem som kräver vår uppmärksamhet," sade Dr Harish Tayyar Madabushi, datavetare vid University of Bath och medförfattare till den nya studien om "emergent abilities" i LLM. Professor Iryna Gurevych tillade: "... våra resultat innebär inte att AI inte är ett hot alls. Snarare visar vi att den påstådda uppkomsten av komplext tänkande förmågor associerade med specifika hot inte stöds av bevis och att vi kan kontrollera inlärningsprocessen för LLM mycket väl ändå. Framtida forskning bör därför fokusera på andra risker som modellerna kan utgöra, såsom deras potential att användas för att generera falska nyheter."
slashdot.org
New Research Reveals AI Lacks Independent Learning, Poses No Existential Threat
Create attached notes ...