AI og ML nyheder på dansk

Nyt forskning afslører, at AI mangler selvstændig læring, udgør ingen eksistentiel trussel

ZipNada skriver: Nyt forskning viser, at store sprogmodeller (LLM'er) som ChatGPT ikke kan lære selvstændigt eller opnå nye færdigheder uden eksplicit instruktion, hvilket gør dem forudsigelige og kontrollerbare. Studiet dæmper frygten for, at disse modeller udvikler komplekse tænkningsevner, og understreger, at selv om LLM'er kan generere sofistikeret sprog, er de usandsynlige at udgøre eksistensielle trusler. Imidlertid kræver muligheden for misbrug af AI, såsom at generere falske nyheder, stadig opmærksomhed. Studiet, der blev offentliggjort i dag som del af forhandlingerne ved den 62. årlige møde i Association for Computational Linguistics (ACL 2024) - det førende internationale konference i naturlig sprogbehandling - afslører, at LLM'er har en overfladisk evne til at følge instruktioner og excellerer i sprogkundskaber, men de har ingen potentiale til at mestre nye færdigheder uden eksplicit instruktion. Dette betyder, at de forbliver essentielt kontrollerbare, forudsigelige og sikre. "Den herskende narrativ, at denne type AI er en trussel mod menneskeheden, forhindrer den bredere tilgang og udvikling af disse teknologier, og leder også opmærksomheden væk fra de ægte problemer, der kræver vores fokus," sagde Dr. Harish Tayyar Madabushi, datalog ved University of Bath og medforfatter til den nye studie om "emergent abilities" i LLM'er. Professor Iryna Gurevych tilføjede: "...vore resultater betyder ikke, at AI ikke er en trussel overhovedet. I stedet viser vi, at den påståede opståen af komplekse tænkningsevner, der er forbundet med specifikke trusler, ikke er understøttet af beviser, og at vi kan kontrollere LLM'ernes læringsproces meget godt alligevel. Fremtidig forskning bør derfor fokusere på andre risici, der er forbundet med modellerne, såsom deres potentiale til at blive brugt til at generere falske nyheder."
slashdot.org
New Research Reveals AI Lacks Independent Learning, Poses No Existential Threat
Create attached notes ...