AI og ML nyheder på dansk

LLM-eksperimentation i stor skala ved hjælp af Amazon SageMaker Pipelines og MLflow

1. Store sprogmodeller (LLM) har opnået succes i forskellige NLP-opgaver, men kan ikke altid generalisere godt til specifikke domæner eller opgaver. 2. Anpassning af en LLM kan gøres ved hjælp af prompt-teknik, Opsamling-Forstærket Generering (RAG) eller finjustering, og evaluering er nødvendig for at sikre, at anpassningsprocessen har forbedret modelens præstation. 3. Finjustering af en LLM kan være en kompleks arbejdsproces for datavidenskabsfolk og ML-ingeniører at operationalisere, og brugen af Amazon SageMaker med MLflow og SageMaker Pipelines kan forenkle denne proces. 4. MLflow kan håndtere sporingsfølgning af finjusterings-eksperimenter, sammenligning af evalueringresultater fra forskellige løb, modelversionering, udrulning og konfiguration. 5. SageMaker Pipelines kan orkestrere flere eksperimenter baseret på eksperimentkonfigurationen. 6. Forudsætningerne for denne proces omfatter en Hugging Face-login-token og SageMaker-adgang med påkrævede IAM-rettigheder. 7. For at oprette en MLflow-sporingsserver, skal du oprette en server med et navn, en placering for artifact-lager og det kan tage op til 20 minutter at initialisere og blive operativ. 8. For finjustering af en LLM kan du bruge SageMaker Pipelines til at køre flere LLM-eksperiment-iterationer samtidigt, hvilket reducerer den samlede behandlingstid og omkostning. 9. MLflow-integration med SageMaker Pipelines kræver sporingsserver-ARN og tilføjelse af mlflow og sagemaker-mlflow Python-pakkerne som afhængigheder i pipeline-opstillingen. 10. Logning af datasæt med MLflow muliggør sporingsfølgning og reproducerbarhed af eksperimenter over forskellige løb, hvilket tillader mere informerede beslutninger om, hvilke modeller yder bedst på specifikke opgaver eller domæner.
favicon
aws.amazon.com
LLM experimentation at scale using Amazon SageMaker Pipelines and MLflow
Create attached notes ...