La mémoire dans les modèles de langage se réfère à la capacité des systèmes d'IA à conserver et à rappeler des informations pertinentes, contribuant à sa capacité à raisonner et à apprendre continuellement de ses expériences. Il existe quatre catégories de mémoire : la mémoire à court terme, la mémoire à long court terme, la mémoire à long terme et la mémoire de travail. La mémoire à court terme conserve des informations pendant une très courte période, souvent des secondes à des minutes, et est utilisée pour référencer des messages récents et générer des réponses pertinentes. La mémoire à long court terme conserve des informations pendant une période modérée, comme des minutes à des heures, et est utilisée pour gérer les sessions et garder l'historique de conversation actuel. La mémoire à long terme conserve des informations pendant une période indéfiniment longue et est utilisée pour comprendre les matières dans lesquelles un élève se débrouille bien et celles dans lesquelles il a du mal. La mémoire de travail est une composante du modèle de langage lui-même, permettant au modèle de conserver des informations, de les manipuler et de les affiner, améliorant ainsi la capacité du modèle à raisonner. L'enracinement mesure la capacité d'un modèle à produire une sortie qui est contextuellement pertinente et significative. Le processus d'enracinement d'un modèle de langage peut être une combinaison de formation de modèle de langage, de réglage fin et de processus externes, y compris la mémoire.
towardsdatascience.com
The Intersection of Memory and Grounding in AI Systems
Create attached notes ...
