Amazon SageMaker – Preise
Preisübersicht
Amazon SageMaker unterstützt Datenwissenschaftler und Entwickler bei der Vorbereitung, der Erstellung, dem Training und der Bereitstellung hochwertiger Machine-Learning (ML)-Modelle durch eine breite Palette von speziell für ML entwickelten Funktionen. SageMaker unterstützt die führenden ML-Frameworks, Toolkits und Programmiersprachen.
Mit SageMaker zahlen Sie nur für das, was Sie tatsächlich nutzen. Sie haben zwei Zahlungsmöglichkeiten: ein On-Demand-Preismodell, das keine Mindestgebühren und keine Vorausleistungen vorsieht, und die SageMaker-Savings-Plans, die ein flexibles, nutzungsbasiertes Preismodell im Austausch für die Verpflichtung zu einer kontinuierlichen Nutzungsmenge bieten.
Kostenloses Kontingent von Amazon SageMaker
Amazon SageMaker kostenlos testen. Im Rahmen des kostenlosen Kontingents für AWS können Sie Amazon SageMaker zum Einstieg kostenlos verwenden. Ihr kostenloses Kontingent startet mit dem ersten Monat, nachdem Sie Ihre erste SageMaker-Ressource erstellt haben. Die Details zum kostenlosen Kontingent für Amazon SageMaker sind in der Tabelle unten aufgeführt.
Fähigkeiten von Amazon SageMaker | Nutzung eines kostenlosen Kontingents pro Monat für die ersten 2 Monate |
Studio-Notebooks, und Notebook-Instances | 250 Stunden ml.t3.-medium-Instance auf Studio-Notebooks ODER 250 Stunden ml.t2.-medium-Instance oder ml.t3.-medium-Instance auf Notebook-Instances |
RStudio auf SageMaker | 250 Stunden ml.t3.medium-Instance für die RSession-App UND kostenlose ml.t3.medium-Instance für die RStudioServerPro-App |
Data Wrangler | 25 Stunden der ml.m5.4xlarge-Instance |
Feature Store | 10 Millionen Schreibeinheiten, 10 Millionen Leseeinheiten, 25 GB Speicher (Standard-Online-Speicher) |
Training | 50 Stunden m4.xlarge- oder m5.xlarge-Instances |
Amazon SageMaker mit TensorBoard | 300 Stunden ml.r5.large-Instance |
Echtzeit-Inferenz | 125 Stunden m4.xlarge- oder m5.xlarge-Instances |
Serverless-Inferenz | 150 000 Sekunden Dauer der On-Demand-Inferenz |
Canvas | 160 Stunden/Monat für Sitzungszeit |
HyperPod | 50 Stunden der m5.xlarge-Instance |
On-Demand-Preise
-
Studio Classic
-
JupyterLab
-
Code-Editor
-
RStudio
-
Notebook Instances
-
Verarbeitung
-
TensorBoard
-
Data Wrangler
-
Feature Store
-
Training
-
MLflow
-
Echtzeit-Inferenz
-
Asynchrone Inferenz
-
Batch-Transformation
-
Serverless Inference
-
JumpStart
-
Profiler
-
HyperPod
-
Inferenzoptimierung
-
Studio Classic
-
Amazon SageMaker Studio Classic
Studio Classic bietet Jupyter-Notebooks in einem Schritt in unserer alten IDE-Erfahrung. Die grundlegenden Rechenressourcen sind vollständig elastisch und die Notebooks können problemlos mit anderen geteilt werden, was eine nahtlose Zusammenarbeit ermöglicht. Der von Ihnen gewählte Instance-Typ wird Ihnen nach der Dauer der Nutzung in Rechnung gestellt. -
JupyterLab
-
Amazon SageMaker JupyterLab
Starten Sie das vollständig verwaltete JupyterLab in Sekundenschnelle. Verwenden Sie die neueste webbasierte interaktive Entwicklungsumgebung für Notebooks, Code und Daten. Der von Ihnen gewählte Instance-Typ wird Ihnen nach der Dauer der Nutzung in Rechnung gestellt. -
Code-Editor
-
Amazon-SageMaker-Code-Editor
Der auf Code-OSS (Visual Studio Code – Open Source) basierende Code-Editor ermöglicht es Ihnen, Ihren Analyse- und ML-Code zu schreiben, zu testen, zu debuggen und auszuführen. Es ist vollständig in SageMaker Studio integriert und unterstützt IDE-Erweiterungen, die in der Open VSX-Erweiterungsregistrierung verfügbar sind. -
RStudio
-
RStudio
RStudio bietet On-Demand-Cloud-Computing-Ressourcen, um die Modellentwicklung zu beschleunigen und die Produktivität zu verbessern. Ihnen werden die Instance-Typen in Rechnung gestellt, die Sie zum Ausführen der RStudio Session-App und der RStudio-Server-Pro-App auswählen.
RStudioServerPro App
-
Notebook Instances
-
Notebook-Instances
Notebook-Instances sind Instances für Datenverarbeitung, auf denen die Jupyter-Notebook-App ausgeführt wird. Der von Ihnen gewählte Instance-Typ wird Ihnen nach der Dauer der Nutzung in Rechnung gestellt.
-
Verarbeitung
-
Amazon SageMaker Processing
Mit Amazon SageMaker Processing können Sie Ihre Workloads für Vor- und Nachverarbeitung sowie Modellauswertung problemlos in einer vollständig verwalteten Infrastruktur ausführen. Der von Ihnen gewählte Instance-Typ wird Ihnen nach der Dauer der Nutzung in Rechnung gestellt.
-
TensorBoard
-
Amazon SageMaker mit TensorBoard
Amazon SageMaker mit TensorBoard bietet ein gehostetes TensorBoard-Erlebnis zur Visualisierung und Behebung von Modellkonvergenzproblemen für Amazon SageMaker-Schulungsaufträge.
-
Data Wrangler
-
Amazon SageMaker Data Wrangler
Amazon SageMaker Data Wrangler reduziert den Zeitaufwand für die Aggregation und Aufbereitung von Daten für Machine Learning von Wochen auf Minuten. Sie zahlen für die Zeit, die für das Bereinigen, Durchsuchen und Visualisieren von Daten verwendet wird. Kunden, die SageMaker-Data-Wrangler-Instances ausführen, unterliegen den unten angegebenen Preisen.* Kunden, die SageMaker Data Wrangler auf SageMaker-Canvas-Workspace-Instances ausführen, unterliegen den SageMaker-Canvas-Preisen. Weitere Informationen finden Sie auf der Preisseite von SageMaker Canvas.
Amazon SageMaker Data Wrangler – Aufgaben
Eine Amazon SageMaker Data Wrangler-Aufgabe wird beim exportieren eines Datenstroms aus SageMaker Data Wrangler erstellt. Mit SageMaker Data Wrangler-Aufgaben können Sie Ihre Workflows zur Datenaufbereitung automatisieren. SageMaker Data Wrangler-Aufgaben helfen Ihnen, Ihre Datenaufbereitungs-Workflows zeitsparend auf neue Datensätze anzuwenden, und werden sekundengenau abgerechnet.
-
Feature Store
-
Amazon SageMaker Feature Store
Amazon SageMaker Feature Store ist ein zentrales Repository zum Einlesen, Speichern und Bereitstellen von Features für Machine Learning. Schreib- und Lesezugriffe auf Feature-Gruppen und Datenspeicher im SageMaker Feature Store werden Ihnen in Rechnung gestellt, wobei sich die Preise für den Standard-Online-Speicher und den In-Memory-Online-Speicher unterscheiden.Für den Standard-Online-Speicher wird der Datenspeicher pro GB pro Monat berechnet. Für den Durchsatz können Sie zwischen dem bedarfsgesteuerten oder dem bereitgestellten Kapazitätsmodus wählen. Bei On-Demand werden Schreibvorgänge als Schreibanforderungseinheiten pro KB und Lesevorgänge als Leseanforderungseinheiten pro 4 KB berechnet. Im Modus der bereitgestellten Kapazität geben Sie die Lese- und Schreibkapazität an, die Ihre Anwendung voraussichtlich benötigt. Sagemaker Feature Store berechnet eine WCU für jedes Schreiben pro Sekunde (bis zu 1 KB) und eine RCU für jedes Lesen pro Sekunde (bis zu 4 KB). Ihnen wird die Durchsatzkapazität (Lese- und Schreibvorgänge) berechnet, die Sie für Ihre Feature-Gruppe bereitstellen, auch wenn Sie die bereitgestellte Kapazität nicht vollständig nutzen.
Für den speicherinternen Online-Speicher werden Schreibvorgänge als Schreibanforderungseinheiten pro KB mit einem Minimum von 1 Einheit pro Schreibvorgang berechnet, Lesevorgänge werden als Leseanforderungseinheiten pro KB mit einem Minimum von 1 Einheit pro Lesevorgang berechnet, und die Datenspeicherung wird pro GB pro Stunde berechnet. Für den speicherinternen Online-Speicher wird eine Mindestgebühr von 5 GiB (5,37 GB) pro Stunde erhoben.
-
Training
-
Amazon SageMaker – Training
Amazon SageMaker bietet alles, was Sie zum Trainieren, Optimieren und Debuggen von Modellen benötigen, und erleichtert so das Training von ML-Modellen (Machine Learning). Die Nutzung des von Ihnen gewählten Instance-Typs wird Ihnen in Rechnung gestellt. Wenn Sie Amazon SageMaker Debugger zum Debuggen von Problemen und Überwachen von Ressourcen während des Trainings verwenden, können Sie zum Debuggen Ihrer Trainingsaufgaben integrierte Regeln verwenden oder Ihre eigenen benutzerdefinierten Regeln schreiben. Die Verwendung der integrierten Regeln zum Debuggen Ihrer Trainingsaufgaben ist kostenlos. Bei benutzerdefinierten Regeln wird Ihnen der von Ihnen gewählte Instance-Typ auf der Grundlage der Nutzungsdauer in Rechnung gestellt.
-
MLflow
-
Amazon SageMaker mit MLflow
Amazon SageMaker mit MLFlow ermöglicht es Kunden, nur für das zu bezahlen, was Sie nutzen. Kunden zahlen für MLflow-Tracking-Server auf der Grundlage der Rechen- und Speicherkosten.
Kunden zahlen für die Datenverarbeitung auf der Grundlage der Größe des Tracking-Servers und der Anzahl der Betriebsstunden. Darüber hinaus zahlen Kunden für alle Metadaten, die auf dem MLflow-Tracking-Server gespeichert sind.
-
Echtzeit-Inferenz
-
Amazon SageMaker Hosting: Echtzeit-Inferenz
Amazon SageMaker bietet Echtzeit-Inferenz für Ihre Anwendungsfälle, die Echtzeit-Vorhersagen benötigen. Die Nutzung des von Ihnen gewählten Instance-Typs wird Ihnen in Rechnung gestellt. Wenn Sie Amazon SageMaker Model Monitor zur Pflege hochpräziser Modelle verwenden, die Echtzeit-Inferenz bereitstellen, können Sie integrierte Regeln zur Überwachung Ihrer Modelle verwenden oder Ihre eigenen Regeln schreiben. Bei integrierten Regeln erhalten Sie bis zu 30 Stunden Überwachung kostenlos. Zusätzliche Gebühren werden nach der Dauer der Nutzung berechnet. Die Verwendung eigener benutzerdefinierter Regeln wird Ihnen separat in Rechnung gestellt.
-
Asynchrone Inferenz
-
Amazon SageMaker Asynchrone Inferenz:
Amazon SageMaker Asynchronous Inference ist eine echtzeitnahe Inferenzoption, die eingehende Anforderungen in eine Warteschlange stellt und sie asynchron verarbeitet. Verwenden Sie diese Option, wenn Sie große Nutzdaten verarbeiten müssen, sobald die Daten eintreffen, oder wenn Sie Modelle ausführen, die lange Inferenzverarbeitungszeiten haben und keine Latenzzeiten von unter einer Sekunde benötigen. Die Kosten für die von Ihnen gewählte Instance werden Ihnen in Rechnung gestellt. -
Batch-Transformation
-
Amazon SageMaker Batch Transform
Mit Amazon SageMaker Batch Transform ist es nicht erforderlich, den Datensatz in einzelne Blöcke zu unterteilen oder Echtzeitendpunkte zu verwalten. Mit SageMaker Batch Transform können Sie Vorhersagen anhand großer oder kleiner Batch-Datensätze ausführen. Der von Ihnen gewählte Instance-Typ wird Ihnen nach der Dauer der Nutzung in Rechnung gestellt.
-
Serverless Inference
-
Amazon SageMaker Serverless Inference
Mit Amazon SageMaker Serverless Inference können Sie Machine-Learning-Modelle für Inferenz bereitstellen, ohne die zugrunde liegende Infrastruktur konfigurieren oder verwalten zu müssen. Sie können entweder Serverless Inference auf Abruf verwenden oder Ihrem Endpunkt Provisioned Concurrency hinzufügen, um eine vorhersehbare Leistung zu erzielen.Bei On-Demand-Serverless-Inference bezahlen Sie nur für die Rechenkapazität, die für die Verarbeitung von Inferenz-Anforderungen verwendet wird, die nach Millisekunden und verarbeiteter Datenmenge abgerechnet wird. Die Computing-Gebühr hängt von der ausgewählten Arbeitsspeicher-Konfiguration ab.
Bereitgestellte NebenläufigkeitOptional können Sie Provisioned Concurrency auch für Ihre Serverless-Endpunkte aktivieren. Provisioned Concurrency (bereitgestellte Nebenläufigkeit) ermöglicht Ihnen die Bereitstellung von Modellen auf Serverless-Endpunkten mit vorhersehbarer Leistung und hoher Skalierbarkeit, indem Ihre Endpunkte für eine bestimmte Anzahl gleichzeitiger Anforderungen warm gehalten werden. Wie bei On-Demand-Serverless-Inferenz zahlen Sie, wenn Provisioned Concurrency aktiviert ist, für die zur Verarbeitung von Inferenzanfragen aufgewendete Rechenkapazität, die pro Millisekunde abgerechnet wird, und für die Menge der verarbeiteten Daten. Sie zahlen auch für die Nutzung von Provisioned Concurrency, basierend auf dem konfigurierten Speicher, der bereitgestellten Dauer und dem Umfang der aktivierten Nebenläufigkeit.
-
JumpStart
-
Amazon SageMaker JumpStart
Amazon SageMaker JumpStart hilft Ihnen beim schnellen und einfachen Einstieg in das Machine Learning, indem Sie mit einem Klick auf beliebte Modellsammlungen (auch bekannt als „Modell-Zoos“) zugreifen können. JumpStart bietet auch End-to-End-Lösungen für gängige ML-Anwendungsfälle, die an Ihre Bedürfnisse angepasst werden können. Für die Nutzung von JumpStart-Modellen oder -Lösungen fallen keine zusätzlichen Gebühren an. Die Stunden für die zugrunde liegende Instance Training und Inference werden Ihnen genauso in Rechnung gestellt, wie wenn Sie sie manuell erstellt hätten.
-
Profiler
-
Amazon SageMaker Profiler erfasst Daten auf Systemebene zur Visualisierung von hochauflösenden CPU- und GPU-Trace-Plots. Dieses Tool wurde entwickelt, um Datenwissenschaftlern und Ingenieuren dabei zu helfen, hardwarebedingte Leistungsengpässe in ihren Deep-Learning-Modellen zu identifizieren und so Zeit und Kosten für umfassende Schulungen zu sparen. Derzeit unterstützt SageMaker Profiler nur die Profilerstellung von Trainingsaufträgen unter Nutzung der Trainings-Datenverarbeitungs-Instance-Typen ml.g4dn.12xlarge, ml.p3dn.24xlarge und ml.p4d.24xlarge.
Regionen: USA Ost (Ohio), USA Ost (Nord-Virginia), USA West (Oregon), Europa (Frankfurt), Europa (Irland) und Israel (Tel Aviv).Amazon SageMaker Profiler befindet sich derzeit in der Vorschauversion und ist nur für Kunden in unterstützten Regionen kostenlos verfügbar.
-
HyperPod
-
Amazon SageMaker HyperPod
Amazon SageMaker HyperPod wurde speziell entwickelt, um die Entwicklung von Foundation Models (FMs) zu beschleunigen. Um das FM-Training widerstandsfähiger zu machen, überwacht es kontinuierlich den Zustand des Clusters, repariert und ersetzt fehlerhafte Knoten im laufenden Betrieb und speichert häufige Checkpoints, um das Training automatisch fortzusetzen, ohne dass der Fortschritt verloren geht. SageMaker HyperPod ist mit verteilten SageMaker-Trainingsbibliotheken vorkonfiguriert, mit denen Sie die FM-Trainingsleistung verbessern und gleichzeitig die Computer- und Netzwerkinfrastruktur des Clusters voll ausnutzen können.Hinweis: Die Preise für SageMaker HyperPod decken nicht die Gebühren für Services ab, die mit HyperPod-Clustern verbunden sind, wie Amazon EKS, Amazon FSx for Lustre und Amazon Simple Storage Service (Amazon S3).
-
Inferenzoptimierung
-
Das Inferenzoptimierungs-Toolkit macht es Ihnen leicht, die neuesten Techniken zur Inferenzoptimierung zu implementieren, um eine Kostenleistung auf dem neuesten Stand der Technik (SOTA) auf Amazon SageMaker zu erzielen und gleichzeitig monatelange Entwicklerzeit zu sparen. Sie können aus einem Menü beliebter Optimierungstechniken von SageMaker wählen und Optimierungsaufträge im Voraus ausführen, das Modell auf Leistungs- und Genauigkeitsmetriken vergleichen und das optimierte Modell dann zur Inferenz auf einem SageMaker-Endpunkt bereitstellen.
Instance-Details
Produktdetails zur Amazon-SageMaker-P5-Instance
Instance-Größe | vCPUs | Instance-Arbeitsspeicher (TiB) | GPU-Modell | GPU | GPU-Speicher insgesamt (GB) | Speicher pro GPU (GB) | Netzwerkbandbreite (Gbit/s) | GPUDirect RDMA | GPU Peer-to-Peer | Instance-Speicher (TB) | EBS-Bandbreite (Gbit/s) |
ml.p5.48xlarge | 192 | 2 | NVIDIA H100 | 8 | 640 HBM3 | 80 | 3200 EFAv2 | Ja | 900 GB/s NVSwitch | 8x3.84 NVMe-SSD | 80 |
Produktdetails zur Amazon-SageMaker-P4d-Instance
Instance-Größe | vCPUs | Instance-Arbeitsspeicher (GiB) | GPU-Modell | GPUs | GPU-Speicher insgesamt (GB) | Speicher pro GPU (GB) | Netzwerkbandbreite (Gbit/s) | GPUDirect RDMA | GPU-Peer-to-Peer | Instance-Speicher (GB) | EBS-Bandbreite (GBit/s) |
ml.p4d.24xlarge | 96 | 1152 | NVIDIA A100 | 8 | 320 HBM 2 | 40 | 400 ENA und EFA | Ja | 600 GB/s NVSwitch | 8 x 1 000 NVMe SSD | 19 |
ml.p4de.24xlarge | 96 | 1152 | NVIDIA A100 | 8 | 640 HNM2e | 80 | 400 ENA und EFA | Ja | 600 GB/s NVSwitch | 8X1000 NVMe-SSD | 19 |
Amazon-SageMaker-P3-Instance – Produktdetails
Instance-Größe | vCPUs | Instance-Arbeitsspeicher (GiB) | GPU-Modell | GPUs | GPU-Speicher insgesamt (GB) | Speicher pro GPU (GB) | Netzwerkbandbreite (Gbit/s) | GPU Peer-to-Peer | Instance-Speicher (GB) | EBS-Bandbreite (Gbit/s) |
ml.p3.2xlarge | 8 | 61 | NVIDIA V100 | 1 | 16 | 16 | Bis zu 10 | n. a. | Nur EBS | 1,5 |
ml.p3.8xlarge | 32 | 244 | NVIDIA V100 | 4 | 64 | 16 | 10 | NVLink | Nur EBS | 7 |
ml.p3.16xlarge | 64 | 488 | NVIDIA V100 | 8 | 128 | 16 | 25 | NVLink | Nur EBS | 14 |
ml.p3dn.24xlarge | 96 | 768 | NVIDIA V100 | 8 | 256 | 32 | 100 | NVLink | 2 x 900 NVMe-SSD | 19 |
Produktdetails zur Amazon-SageMaker-P2-Instance
Instance-Größe | vCPUs | Instance-Arbeitsspeicher (GiB) | GPU-Modell | GPUs | GPU-Speicher insgesamt (GB) | Speicher pro GPU (GB) | Netzwerkbandbreite (Gbit/s) | EBS-Bandbreite (Gbit/s) |
ml.p2.xlarge | 4 | 61 | NVIDIA K80 | 1 | 12 | 12 | Bis zu 10 | Hoch |
ml.p2.8xlarge | 32 | 488 | NVIDIA K80 | 8 | 96 | 12 | 10 | 10 |
ml.p2.16xlarge | 64 | 732 | NVIDIA K80 | 16 | 192 | 12 | 25 | 20 |
Produktdetails zur Amazon-SageMaker-G4-Instance
Instance-Größe | vCPUs | Instance-Arbeitsspeicher (GiB) | GPU-Modell | GPUs | GPU-Speicher insgesamt (GB) | Speicher pro GPU (GB) | Netzwerkbandbreite (Gbit/s) | Instance-Speicher (GB) | EBS-Bandbreite (GBit/s) |
ml.g4dn.xlarge | 4 | 16 | NVIDIA T4 | 1 | 16 | 16 | Bis zu 25 | 1 x 125 NVMe-SSD | Bis zu 3,5 |
ml.g4dn.2xlarge | 8 | 32 | NVIDIA T4 | 1 | 16 | 16 | Bis zu 25 | 1 x 125 NVMe-SSD | Bis zu 3,5 |
ml.g4dn.4xlarge | 16 | 64 | NVIDIA T4 | 1 | 16 | 16 | Bis zu 25 | 1 x 125 NVMe-SSD | 4,75 |
ml.g4dn.8xlarge | 32 | 128 | NVIDIA T4 | 1 | 16 | 16 | 50 | 1 x 900 NVMe SSD | 9,5 |
ml.g4dn.16xlarge | 64 | 256 | NVIDIA T4 | 1 | 16 | 16 | 50 | 1 x 900 NVMe SSD | 9,5 |
ml.g4dn.12xlarge | 48 | 192 | NVIDIA T4 | 4 | 64 | 16 | 50 | 1 x 900 NVMe SSD | 9,5 |
Amazon-SageMaker-G5-Instance – Produktdetails
Instance-Größe | vCPUs | Instance-Arbeitsspeicher (GiB) | GPU-Modell | GPUs | GPU-Speicher insgesamt (GB) | Speicher pro GPU (GB) | Netzwerkbandbreite (Gbit/s) | EBS-Bandbreite (GBit/s) | Instance-Speicher (GB) |
ml.g5n.xlarge | 4 | 16 | NVIDIA A10G | 1 | 24 | 24 | Bis zu 10 | Bis zu 3,5 | 1 x 250 |
ml.g5.2xlarge | 8 | 32 | NVIDIA A10G | 1 | 24 | 24 | Bis zu 10 | Bis zu 3,5 | 1 x 450 |
ml.g5.4xlarge | 16 | 64 | NVIDIA A10G | 1 | 24 | 24 | Bis zu 25 | 8 | 1 x 600 |
ml.g5.8xlarge | 32 | 128 | NVIDIA A10G | 1 | 24 | 24 | 25 | 16 | 1 x 900 |
ml.g5.16xlarge | 64 | 256 | NVIDIA A10G | 1 | 24 | 24 | 25 | 16 | 1 x 1900 |
ml.g5.12xlarge | 48 | 192 | NVIDIA A10G | 4 | 96 | 24 | 40 | 16 | 1 x 3 800 |
ml.g5.24xlarge | 96 | 384 | NVIDIA A10G | 4 | 96 | 24 | 50 | 19 | 1 x 3 800 |
ml.g5.48xlarge | 192 | 768 | NVIDIA A10G | 8 | 192 | 24 | 100 | 19 | 2 x 3 800 |
Produktdetails zur Amazon-SageMaker-Trn1-Instance
Instance-Größe | vCPUs | Arbeitsspeicher (GiB) | Trainium-Beschleuniger | Beschleunigerspeicher gesamt (GB) | Arbeitsspeicher pro Beschleuniger (GB) | Instance-Speicher (GB) | Netzwerkbandbreite (Gbit) | EBS-Bandbreite (Gbit/s) |
ml.trn1.2xlarge | 8 | 32 | 1 | 32 | 32 | 1 x 500 NVMe SSD | Bis zu 12,5 | Bis zu 20 |
ml.trn1.32xlarge | 128 | 512 | 16 | 512 | 32 | 4 x 2 000 NVMe-SSD | 800 | 80 |
Produktdetails zur Amazon-SageMaker-Inf1-Instance
Instance-Größe | vCPUs | Arbeitsspeicher (GiB) | Inferentia-Beschleuniger | Beschleunigerspeicher gesamt (GB) | Arbeitsspeicher pro Beschleuniger (GB) | Instance-Speicher | Inter-Beschleuniger-Verbindungen | Netzwerkbandbreite (Gbit/s) | EBS-Bandbreite (Gbit/s) |
ml.inf1.xlarge | 4 | 8 | 1 | 8 | 8 | Nur EBS | n.a. | Bis zu 25 | Bis zu 4,75 |
ml.inf1.2xlarge | 8 | 16 | 1 | 8 | 8 | Nur EBS | n.a. | Bis zu 25 | Bis zu 4,75 |
ml.inf1.6xlarge | 24 | 48 | 4 | 32 | 8 | Nur EBS | Ja | 25 | 4,75 |
ml.inf1.24xlarge | 96 | 192 | 16 | 128 | 8 | Nur EBS | ja | 100 | 19 |
Produktdetails zur Amazon-SageMaker-Inf2-Instance
Instance-Größe | vCPUs | Arbeitsspeicher (GiB) | Inferentia-Beschleuniger | Beschleunigerspeicher gesamt (GB) | Arbeitsspeicher pro Beschleuniger (GB) | Instance-Speicher | Inter-Beschleuniger-Verbindungen | Netzwerkbandbreite (Gbit/s) | EBS-Bandbreite (Gbit/s) |
ml.inf2.xlarge | 4 | 16 | 1 | 32 | 32 | Nur EBS | n.a. | Bis zu 25 | Bis zu 10 |
ml.inf2.8xlarge | 32 | 128 | 1 | 32 | 32 | Nur EBS | n.a. | Bis zu 25 | 10 |
ml.inf2.24xlarge | 96 | 384 | 6 | 196 | 32 | Nur EBS | Ja | 50 | 30 |
ml.inf2.48xlarge | 192 | 768 | 12 | 384 | 32 | Nur EBS | Ja | 100 | 60 |
Amazon SageMaker Studio
Amazon SageMaker Studio ist eine einzige webbasierte Oberfläche für die komplette ML-Entwicklung und bietet eine Auswahl an vollständig verwalteten integrierten Entwicklungsumgebungen (IDEs) und speziell entwickelten Tools. Sie können kostenlos auf SageMaker Studio zugreifen. Ihnen werden nur die zugrundeliegende Rechenleistung und der Speicher berechnet, die Sie für verschiedene IDEs und ML-Tools in SageMaker Studio verwenden.
Sie können viele Dienste von SageMaker Studio, AWS SDK für Python (Boto3) oder AWS Command Line Interface (AWS CLI) nutzen, darunter die folgenden:
- IDEs auf SageMaker Studio zur Durchführung einer vollständigen ML-Entwicklung mit einer Vielzahl vollständig verwalteter IDEs, darunter JupyterLab, Code-OSS (Visual Studio Code – Open Source) und RStudio
- SageMaker Pipelines zum Automatisieren und Verwalten von ML-Workflows
- SageMaker Autopilot zum automatischen Erstellen von ML-Modellen mit voller Transparenz
- SageMaker Experiments zum Organisieren und Verfolgen Ihrer Aufträge und Versionen
- SageMaker Debugger zum Debuggen von Anomalien während des Trainings
- SageMaker Model Monitor zur Aufrechterhaltung qualitativ hochwertiger Modelle
- SageMaker Clarify zur besseren Erklärung Ihrer ML-Modelle und Verzerrungen zu erkennen
- SageMaker JumpStart zur einfachen Bereitstellung von ML-Lösungen für viele Anwendungsfälle. Für die grundlegenden API-Aufrufe, die Amazon SageMaker in Ihrem Namen vornimmt, können Ihnen Gebühren von anderen in der Lösung verwendeten AWS-Services entstehen.
- SageMaker Inference Recommender für Empfehlungen zur richtigen Endpunktkonfiguration
Sie zahlen nur für die zugrunde liegenden Rechen- und Speicherressourcen in SageMaker oder anderen AWS-Services, basierend auf Ihrer Nutzung.
Um das kostenlose Kontingent von Amazon Q Developer auf Jupyter Lab und Code Editor zu nutzen, folgen Sie den Anweisungen hier. Um Amazon Q Developer Pro in Jupyter Lab verwenden zu können, müssen Sie Amazon Q Developer abonnieren. Preise für Amazon Q Developer finden Sie hier.
Bewertungen des Basismodells
SageMaker Clarify unterstützt Bewertungen von Grundlagenmodellen sowohl mit automatischen als auch mit menschenbasierten Bewertungsmethoden. Jede von ihnen hat unterschiedliche Preise. Wenn Sie ein Grundlagenmodell von Amazon SageMaker JumpStart bewerten, das noch nicht in Ihrem Konto bereitgestellt ist, stellt SageMaker das JumpStart-Modell für die Dauer der Inferenz vorübergehend in einer SageMaker-Instance bereit. Die spezifische Instance entspricht der von JumpStart für dieses Modell bereitgestellten Instance-Empfehlung.
Automatische Bewertung:
Die Auswertungen von Grundlagenmodellen werden als SageMaker-Verarbeitungsauftrag ausgeführt. Der Bewertungsauftrag ruft SageMaker Inference auf. Den Kunden werden die Inferenz und der Bewertungsauftrag in Rechnung gestellt. Kunden werden nur für die Dauer des Bewertungsauftrags in Rechnung gestellt. Die Kosten des Bewertungsauftrags wären die Summe der Kosten pro Stunde der Bewertungs-Instance und der Summe der Kosten pro Stunde der Hosting-Instance.
Menschliche Bewertung:
Wenn Sie die Feature zur menschenbasierte Bewertungs verwenden, bei der Sie Ihre eigenen Worker mitbringen, werden Ihnen drei Elemente in Rechnung gestellt: 1) die für die Inferenz verwendete SageMaker-Instance, 2) die Instance, die zum Ausführen des SageMaker-Verarbeitungsauftrags verwendet wird, der die menschliche Bewertung hostet, und 3 ) eine Gebühr von 0,21 USD pro abgeschlossener menschlicher Bewertungsaufgabe. Eine menschliche Aufgabe ist definiert als das Vorkommen, dass ein menschlicher Mitarbeiter eine Bewertung einer einzelnen Aufforderung und der zugehörigen Inferenzantworten in der Benutzeroberfläche für die menschliche Bewertung abgibt. Der Preis ist derselbe, unabhängig davon, ob Sie ein oder zwei Modelle in Ihrer Bewertungsaufgabe haben oder Ihre eigene Inferenz mitbringen, und auch derselbe, unabhängig davon, wie viele Bewertungsdimensionen und Bewertungsmethoden Sie einbeziehen. Der Preis pro Aufgabe von 0,21 USD ist für alle AWS-Regionen gleich. Für die Belegschaft fallen keine gesonderten Kosten an, da die Belegschaft von Ihnen gestellt wird.
Von AWS verwaltete Bewertung:
Für eine von AWS verwaltete Expertenbewertung werden die Preise in einem privaten Gespräch und in Zusammenarbeit mit dem AWS-Expertenbewertungsteam an Ihre Bewertungsanforderungen angepasst.
Amazon SageMaker Studio Lab
Sie können ML-Modelle mit Amazon SageMaker Studio Lab kostenlos entwickeln und trainieren. SageMaker Studio Lab bietet Entwicklern, Akademikern und Datenwissenschaftlern eine konfigurationsfreie Umgebung zum Lernen und Experimentieren mit ML, ohne dass zusätzliche Kosten anfallen.
Amazon SageMaker Canvas
Amazon SageMaker Canvas erweitert den ML-Zugriff, indem es Geschäftsanalysten die Möglichkeit bietet, mithilfe einer visuellen Point-and-Click-Oberfläche genaue ML-Vorhersagen zu generieren – ohne Programmier- oder ML-Erfahrung.
Amazon-SageMaker-Datenbeschriftung
Die Amazon-SageMaker-Datenbeschriftung liefert zwei Datenbeschriftungs-Angebote, Amazon SageMaker Ground Truth Plus und Amazon SageMaker Ground Truth. Erfahren Sie mehr über die Amazon-SageMaker-Datenbeschriftung, einen vollständig verwalteten Datenbeschriftungs-Service, mit dem Sie ganz einfach hochpräzise Trainings-Datensätze für ML entwickeln können.
Amazon-SageMaker-Schattentests
Mit SageMaker können Sie Schattentests durchführen, um ein neues ML-Modell vor der Produktionsfreigabe zu evaluieren, indem Sie seine Leistung im Vergleich zum aktuell eingesetzten Modell testen. Für SageMaker-Schattentests fallen außer den Nutzungsgebühren für die ML-Instances und den ML-Speicher, die zum Hosten des Schattenmodells bereitgestellt werden, keine zusätzlichen Gebühren an. Die Preise für ML-Instanzen und ML-Speicherdimensionen sind dieselben wie für die Echtzeit-Inferenzoption, die in der vorangehenden Preistabelle angegeben ist. Es fallen keine zusätzlichen Gebühren für Daten an, die innerhalb und außerhalb von Schattenbereitstellungen verarbeitet werden.
Amazon SageMaker Edge
Erfahren Sie mehr über die Preise von Amazon SageMaker Edge zur Optimierung, Ausführung und Überwachung von ML-Modellen auf Flotten von Geräten am Netzwerkrand.
Savings Plans für Amazon SageMaker
Mit den Amazon SageMaker Savings Plans können Sie Ihre Kosten um bis zu 64 % senken. Die Pläne gelten automatisch für die Nutzung berechtigter SageMaker-ML-Instances, einschließlich SageMaker-Studio-Notebooks, SageMaker-Notebook-Instances, SageMaker Processing, SageMaker Data Wrangler, SageMaker Training, SageMaker Real-Time Inference und SageMaker Batch Transform, unabhängig von der Instance-Familie, Größe oder Region. Sie können zum Beispiel jederzeit die Nutzung einer CPU-Instance ml.c5.xlarge, die in USA Ost (Ohio) läuft, auf eine ml.Inf1-Instance in USA West (Oregon) für Inferenz-Workloads ändern und automatisch den Preis des Savings Plans weiter bezahlen.
Gesamtbetriebskosten (TCO) mit Amazon SageMaker
Amazon SageMaker bietet mindestens 54 % niedrigere Gesamtbetriebskosten (TCO) über einen Zeitraum von drei Jahren im Vergleich zu anderen selbstverwalteten cloudbasierten Lösungen. Erfahren Sie mehr mit der vollständigen TCO-Analyse für Amazon SageMaker.
Preisbeispiele
-
Preisbeispiel 1: JupyterLab
Als Datenwissenschaftler verbringen Sie 20 Tage damit, JupyterLab für schnelle Experimente mit Notebooks, Code und Daten für 6 Stunden pro Tag auf einer ml.g4dn.xlarge-Instance zu verwenden. Sie erstellen einen JupyterLab-Space und führen ihn dann aus, um auf die JupyterLab-IDE zuzugreifen. Die Rechenleistung wird nur für die Instance berechnet, die verwendet wird, wenn der JupyterLab-Speicherplatz läuft. Die Speichergebühren für einen JupyterLab-Speicherplatz fallen an, bis er gelöscht wird.Datenverarbeitung
Instance Dauer Tage Gesamtdauer Kosten pro Stunde Gesamtsumme ml.g4dn.xlarge 6 Stunden 20 6 * 20 = 120 Stunden 0,7364 USD 88,368 USD Speicher
Sie werden den Allzweck-SSD-Speicher 480 Stunden lang (24 Stunden* 20 Tage) verwenden. In einer Region, die 0,1125 USD pro GB-Monat berechnet:
0,112 USD pro GB-Monat * 5 GB * 480 / (24 Stunden/Tag * 30-Tage-Monat) = 0,373 USD -
Preisbeispiel 2: Code-Editor
Als ML-Ingenieur verbringen Sie 20 Tage damit, den Code-Editor für die Bearbeitung, Ausführung und das Debuggen von ML-Produktionscode für 6 Stunden pro Tag auf einer ml.g4dn.xlarge-Instance zu verwenden. Sie erstellen einen Code-Editor-Bereich und führen ihn dann aus, um auf die Code-Editor-IDE zuzugreifen. Die Rechenleistung wird nur für die Instance berechnet, die verwendet wird, wenn der Code-Editor-Speicherplatz läuft. Die Speichergebühren für einen Code-Editor fallen an, bis er gelöscht wird.Datenverarbeitung
Instance Dauer Tage Gesamtdauer Kosten pro Stunde Gesamtsumme ml.g4dn.xlarge 6 Stunden 20 6 * 20 = 120 Stunden 0,7364 USD 88,368 USD Speicher
Sie werden den Allzweck-SSD-Speicher 480 Stunden lang (24 Stunden* 20 Tage) verwenden. In einer Region, die 0,1125 USD pro GB-Monat berechnet:
0,112 USD pro GB-Monat * 5 GB * 480 / (24 Stunden/Tag * 30-Tage-Monat) = 0,373 USD
-
Preisbeispiel 3: Studio Classic
Ein Datenwissenschaftler durchläuft bei der Verwendung von Notebooks in Amazon SageMaker Studio Classic die folgende Abfolge von Aktionen:
- Öffnet Notebook 1 in einem TensorFlow-Kernel auf einer ml.c5.xlarge-Instance und arbeitet dann 1 Stunde lang auf diesem Notebook.
- Öffnet Notebook 2 auf einer ml.c5.xlarge-Instance. Es wird automatisch in der gleichen ml.c5.xlarge-Instance geöffnet, in der auch Notebook 1 ausgeführt wird.
- Arbeitet 1 Stunde lang gleichzeitig an Notebook 1 und an Notebook 2.
- Dem Daten-Wissenschaftler werden insgesamt 2 Stunden der Verwendung von ml.c5.xlarge in Rechnung gestellt. Für die überlappende Stunde, in der sie gleichzeitig an Notebook 1 und Notebook 2 gearbeitet hat, wird jede Kernel-Anwendung für 0,5 Stunden gemessen und ihr 1 Stunde in Rechnung gestellt.
Kernel-Anwendung Notebook-Instance Stunden Kosten pro Stunde Gesamtsumme TensorFlow ml.c5.xlarge 1 0,204 USD 0,204 USD TensorFlow ml.c5.xlarge 0,5 0,204 USD 0,102 USD Datenwissenschaft ml.c5.xlarge 0,5 0,204 USD 0,102 USD 0,408 USD -
Preisbeispiel 4: RStudio
Ein Datenwissenschaftler führt die folgenden Aktionen durch, während sie RStudio verwendet:
- Launcht RSession 1 auf einer ml.c5.xlarge-Instance und arbeitet dann 1 Stunde lang an diesem Notebook.
- Startet RSession 2 auf einer ml.c5.xlarge Instance. Es wird automatisch in der gleichen ml.c5.xlarge-Instance geöffnet, in der auch RSession 1 ausgeführt wird.
- Arbeitet 1 Stunde lang gleichzeitig an RSesssion 1 und RSession 2.
- Dem Daten-Wissenschaftler werden insgesamt zwei (2) Stunden der Verwendung von ml.c5.xlarge in Rechnung gestellt. Für die sich überschneidende Stunde, in der sie gleichzeitig an RSession 1 und RSession 2 gearbeitet hat, wird jede RSession-Anwendung mit 0,5 Stunden berechnet und ihr wird 1 Stunde in Rechnung gestellt.
In der Zwischenzeit läuft der RServer 24/7, egal ob RSessions laufen oder nicht. Wenn der Admin „Small“ (ml.t3.medium) wählt, dann ist es kostenlos. Wählt der Admin "Medium" (ml.c5.4xlarge) oder "Large" (ml.c5.9xlarge), so wird stundenweise abgerechnet, sofern RStudio für die SageMaker-Domäne aktiviert ist.
RSession-App RSession-Instance Stunden Kosten pro Stunde Gesamtsumme Base R ml.c5.xlarge 1 0,204 USD 0,204 USD Base R ml.c5.xlarge 0,5 0,204 USD 0,102 USD Base R ml.c5.xlarge 0,5 0,204 USD 0,102 USD 0,408 USD -
Preisbeispiel 5: Verarbeitung
Für die Verarbeitung in Amazon SageMaker fallen nur Gebühren für die genutzte Instance während der Ausführung Ihrer Aufträge an. Wenn Sie die Eingabedaten zur Verarbeitung in Amazon S3 bereitstellen, lädt Amazon SageMaker die Daten zu Beginn der Verarbeitungsaufgabe aus Amazon S3 auf einen lokalen Dateispeicher herunter.
Der Datenanalyst führt einen Auftrag zur Vorverarbeitung und Validierung von Daten auf zwei ml.m5.4xlarge-Instances für eine Auftragsdauer von 10 Minuten aus. Sie lädt einen Datensatz von 100 GB in S3 als Eingabe für den Verarbeitungsauftrag hoch, und die Ausgabedaten (die ungefähr die gleiche Größe haben) werden wieder in S3 gespeichert.
Stunden Verarbeitungs-Instances Preis pro Stunde Gesamtsumme 1 * 2 * 0,167 = 0,334 ml.m5.4xlarge 0,922 USD 0,308 USD Universell-Speicher (SSD) (GB) Preis pro Stunde Gesamtsumme 100 GB * 2 = 200 0,14 USD 0,0032 USD Die Zwischensumme für den Amazon-SageMaker-Verarbeitungsauftrag = 0,308 USD.
Zwischensumme für 200 GB an Universell-Speicher (SSD) = 0,0032 USD.
In diesem Beispiel würden insgesamt 0,3112 USD berechnet werden.
-
Preisbeispiel 6: Data Wrangler
Laut Tabelle verwenden Sie Amazon SageMaker Data Wrangler für insgesamt 18 Stunden über 3 Tage, um Ihre Daten aufzubereiten. Zusätzlich legen Sie eine SageMaker Data Wrangler-Aufgabe an, um wöchentlich aktualisierte Daten vorzubereiten. Jede Aufgabe dauert 40 Minuten, und sie wird wöchentlich einen Monat lang ausgeführt.
Monatliche Gesamtgebühren für die Nutzung von Data Wrangler = 16,596 USD + 2,461 USD = 19,097 USD
Anwendung SageMaker-Studio-Instance Tage Dauer Gesamtdauer Kosten pro Stunde Kosten Zwischensumme SageMaker Data Wrangler ml.m5.4xlarge 3 6 Stunden 18 Stunden 0,922 USD 16,596 USD SageMaker Data Wrangler-Aufgabe ml.m5.4xlarge - 40 Minuten 2,67 Stunden 0,922 USD 2,461 USD Als Datenwissenschaftler verbringen Sie drei Tage, 6 Stunden pro Tag, mit Amazon SageMaker Data Wrangler, um Ihre Daten zu bereinigen, zu erforschen und zu visualisieren. Zum Ausführen Ihrer Datenaufbereitungspipeline initiieren Sie dann eine SageMaker Data Wrangler-Aufgabe, die für eine wöchentliche Ausführung geplant ist.
In der nachstehenden Tabelle sind Ihre Gesamtnutzung für den Monat und die damit verbundenen Gebühren für die Nutzung von Amazon SageMaker Data Wrangler zusammengefasst.
-
Preisbeispiel 7: Feature Store
++ Alle gebrochenen Leseeinheiten werden auf die nächste ganze Zahl gerundet
Datenspeicher
Insgesamt gespeicherte Daten = 31,5 GB
Monatliche Kosten für Datenspeicher = 31,5 GB * 0,45 USD = 14,175 USDMonatliche Gesamtgebühren für Amazon SageMaker Feature Store = 56,875 USD + 3,185 USD + 14,175 USD = 74,235 USD
Tag des Monats Gesamtsumme Schreibvorgänge Gesamtsumme Schreibeinheiten Gesamtsumme Lesevorgänge Gesamtsumme Leseeinheiten Tage 1 bis 10 100 000 Schreibvorgänge
(10 000 Schreibvorgänge * 10 Tage)2 500 000
(100 000 * 25KB )100 000
(10 000 * 10 Tage)700 000++
(100 000 * 25/4 KB)Tag 11 200 000 Schreibvorgänge 5 000 000
(200 000 * 25KB )200 000 Lesevorgänge 1 400 000++
(200 000 * 25/4KB )Tage 12 bis 30 1 520 000 Schreibvorgänge
(80 000 * 19 Tage)38 000 000
(1 520 000 * 25 KB)1 520 000 Schreibvorgänge
(80 000 * 19 Tage)10 640 000++
(1 520 000 * 25/4 KB)Total kostenpflichtige Einheiten 45 500 000 Schreibeinheiten 12 740 000 Leseeinheiten Monatliche Gebühren für Schreib- und Lesevorgänge 56.875 USD
(45,5 Millionen Schreibeinheiten * 1,25 USD pro Million Schreibvorgänge)3,185 USD
(12,74 Mio. Leseeinheiten * 0,25 USD pro Mio. Lesevorgänge)Sie haben eine Webanwendung, die Lese- und Schreibvorgänge von jeweils 25 KB in den Amazon SageMaker Feature Store ausführt. In den ersten 10 Tagen eines Monats verzeichnet Ihre Anwendung nur wenig Datenverkehr, sodass jeden Tag 10 000 Schreibvorgänge und 10 000 Lesevorgänge im SageMaker Feature Store stattfinden. An Tag 11 des Monats gewinnt Ihre Anwendung Aufmerksamkeit in den sozialen Medien und der Anwendungs-Traffic steigt an diesem Tag auf 200.000 Schreibvorgänge und 200.000 Lesevorgänge. Ihre Anwendung reguliert sich zum Monatsende zu einem gleichmäßigeren Verkehrsaufkommen mit durchschnittlich 80 000 Lese- und 80 000 Schreibvorgängen pro Tag.
In der nachstehenden Tabelle sind Ihre Gesamtnutzung für den Monat und die damit verbundenen Gebühren für die Nutzung des Amazon SageMaker Feature Store zusammengefasst.
-
Preisbeispiel 8: Training
Die Gesamtkosten für Training und Debugging betragen in diesem Beispiel 2,38 USD. Für die Computing-Instances und die Universell-Speicher-Volumes, die von den in Amazon SageMaker Debugger integrierten Regeln verwendet werden, fallen keine zusätzlichen Gebühren an.
Universell-Speicher (SSD) für Training (GB) Universell-Speicher (SSD) für in den Debugger integrierte Regeln (GB) Universell-Speicher (SSD) für benutzerdefinierte Debugger-Regeln (GB) Preis pro GB/Monat Zwischensumme Genutzte Kapazität 3 2 1 Kosten 0 USD Keine zusätzlichen Gebühren für integrierte Speichervolumes 0 USD 0,10 USD 0 USD Stunden Training-Instance Debug-Instance Preis pro Stunde Zwischensumme 4 * 0,5 = 2,00 ml.m4.4xlarge – 0,96 USD 1,92 USD 4 * 0,5 * 2 = 4 – Keine zusätzlichen Gebühren für integrierte Regel-Instances 0 USD 0 USD 4 * 0,5 = 2 ml.m5.xlarge – 0,23 USD 0,46 USD ------- 2,38 USD Ein Datenwissenschaftler hat eine Woche lang an einem Modell für ein neues Konzept gearbeitet. Er trainiert das Modell vier Mal auf einem ml.m4.4xlarge für 30 Minuten pro Trainingslauf, wobei Amazon SageMaker Debugger mit zwei integrierten Regeln einer selbst geschriebenen Regel aktiviert ist. Bei der benutzerdefinierten Regel legte er die ml.m5.xlarge-Instance fest. Sie führt das Training mit einem Trainings-Datenvolumen von 3 GB in Amazon S3 aus und gibt 1 GB an Modellausgabe an Amazon S3 weiter. SageMaker erstellt Universell-Speicher SSD (gp2)-Volumes für jede Trainings-Instance. SageMaker erstellt außerdem Universell-Speicher SSD (gp2)-Volumes für jede definierte Regel. In diesem Beispiel werden insgesamt vier Universell-Speicher SSD (gp2)-Volumes erstellt. SageMaker Debugger gibt 1 GB Debug-Daten an den Amazon-S3-Bucket des Kunden aus.
-
Preisbeispiel #9: MLFlow
Sie haben zwei Teams von Datenwissenschaftlern. Ein Team mit 10 Datenwissenschaftlern und das andere Team mit 40 Datenwissenschaftlern. Um diesen beiden Teams gerecht zu werden, aktivieren Sie zwei verschiedene MLFlow-Tracking-Server: einen kleinen und einen mittleren. Jedes Team führt Experimente mit Machine Learning (ML) durch und muss die Metriken, Parameter und Artefakte aufzeichnen, die bei den Trainingsversuchen entstehen. Sie möchten die MLFlow-Tracking-Server 160 Stunden pro Monat verwenden. Angenommen, jedes Datenwissenschafts-Team speichert 1 GB an Metadaten, um die Durchläufe von Experimenten zu verfolgen. Die Rechnung am Ende des Monats würde wie folgt berechnet werden:
Rechengebühren für Small Instance: 160 * 0,60 USD = 96 USD
Rechengebühren für Medium Instance: 160 * 1,40 USD = 166,4 USD
Lagergebühren für zwei Teams: 2 * 1 * 0,10 = 0,20 USDGesamtsumme = 262,60 USD
-
Preisbeispiel Nr. 10: Echtzeit-Inferenz
Die Zwischensumme für Training, Hosting und Überwachung beträgt 305,827 USD. Die Zwischensumme für 3 100 MB an verarbeiteten Vorgängen und 310 MB an verarbeiteten Vorgängen für das Hosting pro Monat = 0,054 USD. In diesem Beispiel würden insgesamt 305,881 USD pro Monat berechnet.
Hinweis: Für integrierte Regeln mit einer ml.m5.xlarge-Instance erhalten Sie bis zu 30 Stunden Überwachung, für alle Endpunkte pro Monat aggregiert, ohne Zusatzkosten.
Eingehende Daten pro Monat – Hosting Ausgehende Daten pro Monat – Hosting Preis pro GB (ein- oder ausgehend) Gesamtsumme 100 MB * 31 = 3 100 MB 0,016 USD 0,0496 USD 10 MB * 31 = 310 MB 0,016 USD 0,00496 USD Stunden pro Monat Hosting-Instances Modellüberwachungs-Instances Preis pro Stunde Gesamtsumme 24 * 31 * 2 = 1 488 ml.c5.xlarge 0,204 USD 303,522 USD 31 * 0,08 = 2,5 ml.m5.4xlarge 0,922 USD 2,305 USD Das Modell in Beispiel Nr. 5 wird in zwei (2) ml.c5.xlarge-Instances für ein zuverlässiges Multi-AZ-Hosting zur Produktion bereitgestellt. Die Amazon-SageMaker-Modellüberwachung ist mit einer (1) ml.m5.4xlarge-Instance aktiviert, und die Überwachungsaufträge sind so geplant, dass sie einmal pro Tag ausgeführt werden. Die Ausführung der Überwachungsaufträge dauert fünf Minuten. Das Modell erhält täglich 100 MB an Daten, und die Inferenzen umfassen 1/10 der Eingabedatenmenge.
-
Preisbeispiel Nr. 11: Asynchrone Inferenz
Die Zwischensumme für SageMaker Asynchronous Inference = 15,81 USD + 0,56 USD + 2 * 0,0048 USD = 16,38 USD. Die Gesamtgebühren für Asynchronous Inference betragen in diesem Beispiel 16,38 USD pro Monat.
Dateneingang pro Monat Datenausgang pro Monat Kosten pro GB (ein- oder ausgehend) Gesamtsumme 10 KB * 1,024 * 31 = 310 MB 10 KB * 1,024 * 31 = 310 MB 0,02 USD 0,0048 10 KB * 1,024 * 31 = 310 MB 0,02 USD 0,0048 Universell-Speicher (SSD) (GB) Preis pro GB/Monat Gesamtsumme 4 0,14 USD 0,56 USD Stunden pro Monat Hosting-Instances Kosten pro Stunde Gesamtsumme 2,5 * 31 * 1 = 77,5 ml.c5.xlarge 0,20 USD 15,81 USD Amazon SageMaker Asynchronous Inference berechnet Ihnen die von Ihrem Endpunkt verwendeten Instances. Wenn Sie keine aktiven Anforderungen bearbeiten, können Sie, um Kosten zu sparen, die automatische Skalierung so konfigurieren, dass die Anzahl der Instances auf Null reduziert wird. Für Eingabe-Nutzlasten in Amazon S3 fallen keine Kosten für das Lesen von Eingabedaten aus Amazon S3 und das Schreiben der Ausgabedaten in S3 in derselben Region an.
Das Modell in Beispiel Nr. 5 wird verwendet, um einen Endpunkt von SageMaker Asynchronous Inference auszuführen. Der Endpunkt ist so konfiguriert, dass er auf einer ml.c5.xlarge Instance läuft und die Anzahl der Instances auf Null reduziert, wenn er nicht aktiv Anforderungen verarbeitet. Die Instance ml.c5.xlarge im Endpunkt verfügt über 4 GB an universellem (SSD) Speicher, der ihr angefügt ist. In diesem Beispiel behält der Endpunkt eine Instance-Anzahl von 1 für 2 Stunden pro Tag bei und hat eine Ruhephase von 30 Minuten. Danach wird er für den Rest des Tages auf eine Instance-Anzahl von Null heruntergefahren. Es werden also 2,5 Stunden Nutzung pro Tag berechnet.
Der Endpunkt verarbeitet 1,024 Anforderungen pro Tag. Die Größe jedes Aufrufs-Anforderung/Antwort-Paket beträgt 10 KB, und die Nutzlast jeder Inferenz-Anforderung in Amazon S3 beträgt 100 MB. Die Inferenzausgaben sind 1/10 so groß wie die Eingabedaten, die wieder in Amazon S3 in derselben Region gespeichert werden. In diesem Beispiel gelten die Datenverarbeitungs-Gebühren für die Anfrage und die Antwort, nicht aber für die Daten, die zu/von Amazon S3 übertragen werden.
-
Preisbeispiel Nr. 12: Batch Transform
Die Gesamtkosten für Inferenz belaufen sich in diesem Beispiel auf 2,88 USD.
Stunden Hosting-Instances Kosten pro Stunde Gesamtsumme 3 * 0,25 * 4 = 3 Stunden ml.m4.4xlarge 0,96 USD 2,88 USD Das Modell in Beispiel 5 wird zur Ausführung von SageMaker Batch Transform verwendet. Der Datenwissenschaftler führt vier separate SageMaker-Batch-Transformationsaufgaben auf 3 ml.m4.4xlarge-Instances für jeweils 15 Minuten pro Aufgabenausführung aus. Dabei wird für jede Ausführung in S3 ein Bewertungsdatensatz mit 1 GB hochgeladen. Die Inferenzen haben 1/10 der Größe der in S3 gespeicherten Eingabedaten.
-
Preisbeispiel 13: On-Demand-Serverless-Inference
Monatliche Datenverarbeitungsgebühren
Datenverarbeitung (GB) Kosten pro GB (ein- oder ausgehend) Monatliche Datenverarbeitungsgebühr 10 GB 0,016 USD 0,16 USD Die Zwischensumme der Gebühr für die Dauer von SageMaker Serverless Inference = 40 USD. Die Zwischensumme der Datenverarbeitungsgebühr für 10 GB = 0,16 USD. In diesem Beispiel würden insgesamt 40,16 USD berechnet.
Monatliche Computing-Gebühren
Anzahl der Anforderungen Dauer jeder Anfrage Gesamtdauer der Inferenz (Sek.) Preis pro Sekunde Monatliche Gebühr für die Inferenzdauer 10 M 100 ms 1 Mio. 0,00004 USD 40 USD
Bei On-Demand-Serverless-Inference bezahlen Sie nur für die Rechenkapazität, die für die Verarbeitung von Inferenz-Anforderungen verwendet wird, die nach Millisekunden und verarbeiteter Datenmenge abgerechnet wird. Die Datenverarbeitungsgebühr hängt von der ausgewählten Arbeitsspeicher-Konfiguration ab.
Wenn Sie Ihrem Endpunkt 2 GB Arbeitsspeicher zuweisen, ihn in einem Monat 10 Millionen Mal ausführen und jedes Mal 100 ms laufen lassen und insgesamt 10 GB an Dateneingängen und -ausgängen verarbeiten, würden Ihre Kosten wie folgt berechnet:
-
Preisbeispiel 14: Provisioned Concurrency bei Serverless-Inferenz
Nehmen wir an, Sie betreiben einen Chat-Bot-Service für ein Unternehmen, das Lohn- und Gehaltsabrechnungen abwickelt. Sie erwarten Ende März, also noch vor Ablauf der Frist für die Steuererklärung, einen Anstieg der Kundenanfragen. Für den Rest des Monats wird jedoch mit einem geringen Verkehr gerechnet. Sie stellen also einen serverlosen Endpunkt mit 2 GB Arbeitsspeicher bereit und fügen für die letzten 5 Tage des Monats von 9 bis 17 Uhr (8 Stunden) Provisioned Concurrency von 100 hinzu. In dieser Zeit verarbeitet Ihr Endpunkt 10 Mio. Anfragen und insgesamt 10 GB an ein-/ausgehenden Daten. Den Rest des Monats läuft der Chat-Bot auf On-Demand Serverless Inference und verarbeitet 3 Mio. Anfragen und 3 GB Datenein-/Ausgang. Gehen wir davon aus, dass die Dauer jeder Anfrage 100 ms beträgt.
Provisioned Concurrency (PC) – Gebühren
Der PC-Preis beträgt 0,000010 USD pro Sekunde
PC-Nutzungsdauer (Sekunden) = 5 Tage* 100 PC* 8 Stunden* 3.600 Sekunden = 14.400.000 Sekunden
PC-Nutzungsgebühr = 14.400.000 Sekunden* 0,000010 USD pro Sekunde = 144 USD.Gebühren für die Inferenzdauer für Datenverkehr, der von Provisioned Concurrency bedient wird
Der Preis für die Inferenzdauer beträgt 0,000023 USD pro Sekunde
Gesamtdauer der Inferenz für PC (s) = 10 M* (100 ms) /1.000 = 1 M Sekunden.
Gebühren für die Inferenzdauer für PC = 1.000.000 Sek. * 0,000023 USD pro Sekunde =23 USDGebühren für die Dauer der Inferenz auf Abruf
Der monatliche Preis für Computing beträgt 0,00004 USD pro Sekunde und im kostenlosen Kontingent stehen 150.000 Sekunden zur Verfügung.
Gesamtrechenleistung (Sekunden) = (3) M * (100 ms) /1000 = 0,3 Mio. Sekunden.
Datenverarbeitung gesamt – Datenverarbeitung kostenloses Kontingent = monatliche gebührenpflichtige Datenverarbeitung in Sekunden
0,3 Mio. Sekunden – 150.000 Sekunden = 150.000 Sekunden
Monatliche Datenverarbeitungsgebühr = 150.000 * 0,00004 USD = 6 USDDatenverarbeitung
Kosten/GB verarbeiteter Daten eingehend/ausgehend = 0,016 USD
Insgesamt verarbeitete GB = 10 + 3 = 13
Gesamtkosten = 0,016 USD*13 = 0,208 USD
Gesamtkosten für März
Gesamtkosten = Bereitgestellte Parallelitätsgebühren + Inferenzdauer für bereitgestellte Parallelität + Inferenzdauer für On-Demand-Computing + Datenverarbeitungsgebühren
= 144 USD +23 USD + 6 USD + 0,208 USD = 173,20 USD -
Preisbeispiel Nr. 15: JumpStart
Der Kunde nutzt JumpStart, um ein vorab trainiertes BERT-Base-Uncased-Modell bereitzustellen, um die Stimmung der Kundenrezensionen als positiv oder negativ zu einzustufen.
Der Kunde setzt das Modell auf zwei (2) ml.c5.xlarge-Instances für zuverlässiges Multi-AZ-Hosting ein. Das Modell erhält täglich 100 MB an Daten, und die Inferenzen umfassen 1/10 der Eingabedatenmenge.
Stunden pro Monat Hosting-Instances Kosten pro Stunde Gesamtsumme 24 * 31 * 2 = 1 488 ml.c5.xlarge 0,204 USD 303,55 USD Eingehende Daten pro Monat – Hosting Ausgehende Daten pro Monat – Hosting Kosten pro GB (ein- oder ausgehend)
Gesamtsumme
100 MB * 31 = 3 100 MB 0,02 USD 0,06 USD 10 MB * 31 = 310 MB 0,02 USD 0,01 USD Die Zwischensumme für Training, Hosting und Überwachung beträgt 305,827 USD. Die Zwischensumme für 3 100 MB an verarbeiteten eingehenden Daten und 310 MB an verarbeiteten ausgehenden Daten für Hosting pro Monat = 0,06 USD. In diesem Beispiel würden insgesamt 305,887 USD pro Monat berechnet.
-
Preisbeispiel 16: HyperPod-Cluster
Nehmen wir an, Sie möchten einen Cluster von 4 ml.g5.24xlarge für einen Monat (30 Tage) mit zusätzlichen 100 GB Speicher pro Instance bereitstellen, um die Modellentwicklung zu unterstützen. Die Gesamtkosten für den Cluster und zusätzlichen Speicher betragen in diesem Beispiel 29.374,40 USD.Computing
Instance Dauer Instances Kosten pro Stunde Zwischensumme ml.g5.24xlarge 30 Tage* 24 Stunden = 720 Stunden 4 10,18 USD 29.318,40 USD Speicher
Standardspeicher (SSD) Dauer Instances Preis pro GB/Monat Zwischensumme 100 GB 30 Tage* 24 Stunden = 720 Stunden 4 0,14 USD 56,00 USD -
Preisbeispiel Nr. 17: Bewertungen von Grundlagenmodellen (automatische Bewertung)
Bewertungen von Grundlagenmodellen mit SageMaker Clarify berechnen Ihnen nur die Instances, die während der Ausführung Ihrer automatischen Bewertungsaufträge verwendet werden. Wenn Sie eine automatische Bewertungsaufgabe und einen Datensatz auswählen, lädt SageMaker den Eingabeaufforderungsdatensatz von Amazon S3 auf eine SageMaker-Bewertungs-Instance.
Im folgenden Beispiel führt ein ML-Techniker eine Bewertung des Llama2-7B-Modells in USA-Ost (Nord-Virginia) durch, um die Genauigkeit der Zusammenfassungsaufgabe zu ermitteln. Der empfohlene Instance-Typ für Inferenz für Llama 2 7B lautet ml.g5.2xlarge. Die empfohlene Mindest-Instance für eine Bewertung lautet ml.m5.2xlarge. In diesem Beispiel wird der Auftrag 45 Minuten lang ausgeführt (abhängig von der Größe des Datensatzes). In diesem Beispiel würden die Kosten für den Bewertungsauftrag und die detaillierten Ergebnisse 1,48 USD betragen.Bearbeitung von Arbeitsstunden (Beispiel)
Region
Instance-Typ
Instance
Kosten pro Stunde
Kosten
0,45
US-east-1
LLM-Hosting
ml.g5.2xlarge
1,52 USD
1,14 USD
0,45
US-east-1
Auswertung
ml.m5.2xlarge
0,46 USD
0,35 USD
Gesamtsumme
1,48 USD
Im nächsten Beispiel führt derselbe Techniker in Virginia einen weiteren Bewertungsauftrag für die Genauigkeit der Zusammenfassungsaufgabe aus, verwendet jedoch eine angepasste Version von Llama 2 7B, die für seinem Konto bereitgestellt und ausgeführt wird. Da das Modell in diesem Fall bereits auf ihrem Konto bereitgestellt ist, fallen die einzigen zusätzlichen Kosten für die Bewertungs-Instance an.
Bearbeitung von Arbeitsstunden
Region
Instance-Typ
Instance
Kosten pro Stunde
Kosten
0,45
US-east-1
Auswertung
ml.m5.2xlarge
0,46 USD
0,35 USD
Gesamtsumme
0,35 USD
-
Preisbeispiel Nr. 18: Bewertungen von Grundlagenmodellen (Bewertung durch Menschen)
Im folgenden Beispiel führt ein Techniker für Machine Learning in USA Ost (N. Virginia) eine menschenbasierte Bewertung von Llama-2-7B für die Genauigkeit der Zusammenfassungsaufgabe aus und verwendet für die Bewertung seine eigenen privaten Worker. Der empfohlene Instance-Typ für Llama-2-7B lautet ml.g5.2xlarge. Die empfohlene Mindest-Instance für einen von Menschen bewerteten Verarbeitungsauftrag lautet ml.t3.medium. Die Inferenz auf Llama-2-7B dauert 45 Minuten (abhängig von der Größe des Datensatzes). Der Datensatz enthält 50 Eingabeaufforderungen, und der Entwickler benötigt 2 Worker, um jeden Eingabeaufforderungs-/Antwortsatz zu bewerten (konfigurierbar bei der Erstellung des Bewertungsauftrags als Parameter „Worker pro Eingabeaufforderung“). Dieser Bewertungsauftrag umfasst 100 Aufgaben (1 Aufgabe für jedes Eingabeaufforderungs-/Antwortpaar pro Worker: 2 Worker x 50 Eingabeaufforderungs-/Antwortsätze = 100 menschliche Aufgaben). Die menschliche Belegschaft benötigt einen Tag (24 Stunden), um alle 100 menschlichen Bewertungsaufgaben des Bewertungsauftrags zu erledigen (abhängig von der Anzahl und dem Kompetenzniveau der Worker und der Länge/Komplexität der Eingabeaufforderungen und Inferenzantworten).
Stunden berechnen
Menschliche Aufgaben
Region
Instance-Typ
Instance
Kosten pro Stunde
Kosten pro menschlicher Aufgabe
Gesamtkosten
0,45
USA Ost (Nord-Virginia)
LLM-Hosting
ml.g5.2xlarge
1,52 USD
1,14 USD
24
USA Ost (Nord-Virginia)
Auftrag wird verarbeitet
ml.t3.medium
0,05 USD
1,20 USD
100
Beliebig
0,21 USD
21,00 USD
Gesamtsumme
23,34 USD
Im nächsten Beispiel führt derselbe Techniker in USA Ost (Nord-Virginia) denselben Bewertungsauftrag aus, verwendet jedoch Llama-2-7B, das bereits in seinem Konto bereitgestellt und betriebsbereit ist. In diesem Fall würden die einzigen zusätzlichen Kosten für die Bewertungsverarbeitung und menschliche Aufgaben anfallen.
Stunden berechnen
Menschliche Aufgaben
Region
Instance-Typ
Instance
Kosten pro Stunde
Kosten pro menschlicher Aufgabe
Gesamtkosten
24
USA Ost (Nord-Virginia)
Auftrag wird verarbeitet
ml.t3.medium
0,05 USD
1,20 USD
100
Beliebig
0,21 USD
21,00 USD
Gesamtsumme
22,20 USD