Obwohl Batch-Inference zahlreiche Vorteile bietet, ist es auf 10 Batch-Inference-Aufträge pro Modell pro Region beschränkt. Um diese Überlegung zu berücksichtigen und die Nutzung von Batch-Inference zu verbessern, haben wir eine skalierbare Lösung mit AWS Lambda und Amazon DynamoDB entwickelt. Dieser Beitrag führt Sie durch die Implementierung eines Queue-Managementsystems, das automatisch verfügbare Job-Slots überwacht und neue Aufträge einreicht, sobald Slots verfügbar werden.
aws.amazon.com
Automate Amazon Bedrock batch inference: Building a scalable and efficient pipeline
Create attached notes ...
