ZipNada écrit : De nouvelles recherches révèlent que les grands modèles de langage (GML) comme ChatGPT ne peuvent pas apprendre de manière indépendante ou acquérir de nouvelles compétences sans instructions explicites, ce qui les rend prévisibles et contrôlables. L'étude éloigne les craintes que ces modèles ne développent des capacités de raisonnement complexes, soulignant que bien que les GML puissent générer du langage sophistiqué, ils sont peu susceptibles de représenter des menaces existentielles. Cependant, le potentiel d'abus de l'IA, comme la génération de fausses informations, nécessite encore attention. L'étude, publiée aujourd'hui dans le cadre des actes du 62e Congrès annuel de l'Association for Computational Linguistics (ACL 2024) - la conférence internationale de premier plan en traitement du langage naturel - révèle que les GML ont une capacité superficielle à suivre les instructions et à exceller dans la maîtrise du langage, mais qu'ils n'ont pas le potentiel d'acquérir de nouvelles compétences sans instruction explicite. Cela signifie qu'ils restent intrinsèquement contrôlables, prévisibles et sécurisés. "Le récit dominant selon lequel ce type d'IA est une menace pour l'humanité empêche l'adoption et le développement généralisés de ces technologies, et détourne également l'attention des vrais problèmes qui nécessitent notre attention", a déclaré le Dr Harish Tayyar Madabushi, informaticien à l'Université de Bath et co-auteur de la nouvelle étude sur les "capacités émergentes" des GML. Le professeur Iryna Gurevych a ajouté : "... nos résultats ne signifient pas que l'IA n'est pas une menace du tout. Au lieu de cela, nous montrons que l'émergence supposée de capacités de pensée complexe associées à des menaces spécifiques n'est pas soutenue par des preuves et que nous pouvons contrôler le processus d'apprentissage des GML très bien après tout. Les recherches futures devraient donc se concentrer sur d'autres risques posés par les modèles, tels que leur potentiel d'être utilisés pour générer de fausses informations."
slashdot.org
New Research Reveals AI Lacks Independent Learning, Poses No Existential Threat
Create attached notes ...