Transluce, un nouveau laboratoire de recherche à but non lucratif, a mis à disposition un outil qui fournit des informations sur le comportement des neurones dans les grands modèles de langage (LLM). L'outil permet aux utilisateurs de saisir des prompts, de recevoir des réponses et de voir quelles neurones sont activées. Les utilisateurs peuvent explorer les neurones activées et leur attribution à la sortie du modèle. L'outil possède deux fonctionnalités clés : Activation, qui mesure la valeur d'activation normalisée de la neurone, et Attribution, qui mesure dans quelle mesure la neurone affecte la sortie du modèle. Les utilisateurs peuvent également diriger les neurones pour résoudre les problèmes en renforçant ou en supprimant les neurones liées à des concepts. L'outil est open source et a un potentiel pour améliorer la transparence et la responsabilité de l'IA.
towardsdatascience.com
Discover What Every Neuron in the Llama Model Does
