ZipNada kirjoittaa: Uusi tutkimus paljastaa, että suurten kielimallien (LLM) kaltaiset mallit, kuten ChatGPT, eivät pysty oppimaan itsenäisesti tai hankkimaan uusia taitoja ilman erityisiä ohjeita, mikä tekee niistä ennustettavia ja kontrolloitavissa. Tutkimus hälventää pelkoja näiden mallien kehittymisestä monimutkaisiksi syyttömiin kyvyttömiin, korostiessaan, että vaikka LLM-mallit voivat tuottaa sofistikoitua kieltä, ne eivät todennäköisesti aiheuta olemassaoloa uhkaavia vaikutuksia. Kuitenkin AI:n mahdollinen väärinkäyttö, kuten väärennetyn uutisoinnin tuottaminen, edellyttää edelleen huomion. Tutkimus, joka julkaistiin tänään osana 62. vuosittaisen Association for Computational Linguistics (ACL 2024) -kokouksen esitteitä -- johtavaa kansainvälistä konferenssia luonnollisen kielen prosessoinnissa -- paljastaa, että LLM-mallit ovat pinnallisia taitavuudessaan seurata ohjeita ja osoittavat erinomaisuuden kielellisessä taidossa, mutta heillä ei ole potentiaalia opetella uusia taitoja ilman erityisiä ohjeita. Tämä tarkoittaa, että ne säilyvät inherentisti kontrolloitavina, ennustettavina ja turvallisina. "Vallitseva narratiivi, jonka mukaan tämä tyyppinen AI on ihmisyydelle uhka, estää laajamittaisen käytön ja näiden teknologioiden kehittämisen, ja ohjaa myös huomion pois todellisista kysymyksistä, joita meidän täytyy käsitellä," sanoi Dr. Harish Tayyar Madabushi, tietojenkäsittelytieteilijä Bathin yliopistosta ja uuden tutkimuksen yksi teosta. Professori Iryna Gurevych lisäsi: "...tuloksemme eivät tarkoita, että AI ei ole uhka ollenkaan. Sen sijaan näytämme, että esittämässäni monimutkaisen ajattelun taidot liittyvät tiukasti tiukasti tiettyihin uhkiin, ja että voimme hallita LLM-mallien oppimisprosessia erittäin hyvin. Tulevaisuuden tutkimuksen tulisi keskittyä muihin riskeihin, joita mallit aiheuttavat, kuten mahdollisuuteen käyttää niitä väärennetyn uutisoinnin tuottamiseen."
slashdot.org
New Research Reveals AI Lacks Independent Learning, Poses No Existential Threat
Create attached notes ...