1. 大規模言語モデル(LLM)は、NLPの多くのタスクで成功を収めているが、特定のドメインやタスクに一般化しない場合がある。
2. LLMのカスタマイズは、プロンプト・エンジニアリング、Retrieval Augmented Generation (RAG)、ファインチューニングで行うことができ、カスタマイズ・プロセスがモデル・パフォーマンスを向上させたかどうかを評価する必要がある。
3. LLMのファインチューニングは、データ・サイエンティストやML・エンジニアが運用化するための複雑なワークフローであり、Amazon SageMakerとMLflow、SageMaker Pipelinesを使用することでこのプロセスを簡略化できる。
4. MLflowは、ファインチューニング・実験の追跡、異なるランの評価結果の比較、モデル・バージョニング、デプロイメント、設定の管理を行うことができる。
5. SageMaker Pipelinesは、実験の設定に基づいて複数の実験をオーケストレートできる。
6. このプロセスの前提条件として、Hugging Faceのログイン・トークンとSageMaker・アクセスが必要であり、必要なIAM・パーミッションが付与されている。
7. MLflowの追跡サーバーを設定するには、サーバー名、成果物・ストレージ・ロケーションが必要であり、初期化されて運用可能になるまで最大で20分かかる。
8. LLMのファインチューニングには、SageMaker Pipelinesを使用して、複数のLLM実験イテレーションを同時に実行し、全体的な処理時間とコストを削減できる。
9. SageMaker PipelinesとのMLflowの統合には、追跡サーバーのARNと、パイプライン・セットアップでmlflowとsagemaker-mlflowのPython・パッケージを依存関係として追加する必要がある。
10. MLflowでデータセットをログに記録することで、異なるランでの実験の追跡と再現性が可能になり、特定のタスクやドメインでどのモデルが最適なパフォーマンスを示すかについてのより明確な意思決定が可能になる。
aws.amazon.com
LLM experimentation at scale using Amazon SageMaker Pipelines and MLflow
Create attached notes ...
