Wissenschaftler, Entwickler und viele andere Technologen aus zahlreichen Branchen nutzen Amazon Web Services zum Durchführen von Big Data-Analysen und Erfüllen der Herausforderungen der immer größer werdenden Menge, Vielfältigkeit und Geschwindigkeit digitaler Informationen.  Amazon Web Services bietet eine umfassende Palette von Cloud Computing-Ressourcen zur Vereinfachung des Big Data-Managements durch Senkung der Kosten, Anpassung an den Bedarf und Beschleunigung der Innovation.

Sehen Sie sich die AWS Big Data-Lösungen für alle Phasen des Big Data-Lebenszyklus an:

Erfassen > Streamen > Speichern > RDBMS | Data Warehouse | NoSQL > Analysieren > Archivieren

Es war nie einfacher, mit Big Data in der Cloud in Fahrt zu kommen. Lesen Sie den Abschnitt Erste Schritte mit den Tutorials und Ressourcen, um Hilfe beim Starten Ihres ersten Projekts zu erhalten.

Kostenlos bei AWS einsteigen

Kostenloses Konto erstellen
Vertrieb kontaktieren

Erhalten Sie 12 Monate lang Zugriff auf das kostenlose Nutzungskontingent von AWS sowie AWS Support-Funktionen der Stufe "Basic" mit Kundenservice rund um die Uhr, Support-Foren und vielen weiteren Vorteilen.

Details zum kostenlosen Kontingent für AWS anzeigen »



pp_img_3_col_img_whitepaper_1_378x171

Laden Sie ein Exemplar des Whitepapers zu Big Data-Analyseoptionen auf AWS herunter.

Dieses neue Whitepaper bietet eine Übersicht über die verschiedenen Big Data-Optionen, die die AWS-Cloud für Big Data-Architekten und -Analysten sowie Entwickler zu bieten hat. In diesem Dokument wird für jede Big Data-Analyseoption Folgendes beschrieben: ideale Nutzungsmuster, Leistung, Beständigkeit und Verfügbarkeit, Kostenmodell, Skalierbarkeit, Elastizität, Schnittstellen und Antimuster. In diesem Dokument werden zwei Szenarien zur Veranschaulichung der genutzten Analyseoptionen beschrieben. Ferner bietet es zusätzliche Ressourcen für den Einstieg in die Big Data-Analyse in AWS.

Whitepaper herunterladen »

Der AWS Big Data-Blog richtet sich an Lösungsarchitekten, Datenwissenschaftler und Entwickler, um diese beim Kennenlernen bewährter Methoden für Big Data, beim Ermitteln der optimalen AWS Big Data-Services für ihren Anwendungsfall, bei ihren ersten Schritten und bei der intensiven Nutzung von AWS Big Data-Services zu unterstützen. Das Ziel ist es, diesen Blogs zur Zentralstelle für alle zum Entdecken neuer Methoden zum Sammeln, Speichern, Verarbeiten, Analysieren und Visualisieren von Daten in beliebigem Umfang zu machen. Leser finden kurze Tutorials mit Codebeispielen, Fallstudien zu den einzigartigen Vorteilen der Arbeit mit Big Data auf AWS, Ankündigungen neuer Funktionen, Demos und Tutorials von von Partnern und Kunden sowie Tipps und bewährte Methoden für den Einsatz von AWS Big Data-Services.

AWS Big Data Blog anzeigen »



Es scheint, als würden heutzutage überall Daten erzeugt – von Ihren Kunden in sozialen Netzwerken bis zu den Instances, in denen Ihre Webanwendungen ausgeführt werden.  AWS erleichtert die Bereitstellung der Speicher-, Rechen- und Datenbankservices, die Sie benötigen, um diese Daten in nützliche Informationen für Ihr Unternehmen umzuwandeln.  AWS bietet außerdem Datenübertragungsservices, mit denen Big Data schnell in die bzw. aus der Cloud verschoben werden können: AWS Direct Connect und AWS Import/Export. Darüber hinaus fallen für in AWS eingehenden Datenverkehr keine Kosten an.

Erfahren Sie, wie Sie mit AWS Import/Export Festplatten in die Cloud übertragen können »

Erfahren Sie, wie Sie mit AWS Direct Connect eine private Glasfaserverbindung mit der Cloud einrichten »

integ-cloud-backup

RDS steht für MySQL, PostgreSQL, Oracle und SQL Server zur Verfügung.

kinesis-thumb2
2:08
Video mit einer Einführung in Amazon Kinesis ansehen

Amazon Kinesis ist ein verwalteter Service für die Echtzeitverarbeitung gestreamter Big Data. Amazon Kinesis unterstützt Datendurchsätze von Megabytes bis zu Gigabytes an Daten pro Sekunde und kann nahtlos skaliert werden, um Daten-Streams aus Hunderten bis Tausenden unterschiedlichen Quellen verarbeiten zu können. Da dieser Service Ihnen hohe Verfügbarkeit und Beständigkeit bei niedrigen Kosten gewährleistet, können Sie sich jetzt auf die Auswertung Ihrer Daten konzentrieren und dadurch schneller und günstiger bessere Entscheidungen treffen.

Weitere Informationen zu Amazon Kinesis »

Unabhängig davon, ob Sie pharmazeutische Daten für die Analyse, Finanzdaten für Berechnungen und Preisfindung oder Multimediadateien wie Fotos und Videos speichern, ist Amazon Simple Storage Service (S3) die ideale Cloud-Speicherlösung für Big Data mit einer beständigen Speicherung von Originalinhalten. Mit einer Beständigkeit von 99,999999999 % und ohne einzelne Fehlerstelle ist Amazon S3 Ihr elementarer Speicher für Big Data-Objekte.

Weitere Informationen zu Amazon S3 »

Amazon Elastic Block Store (EBS) bietet Festplatten als persistenten Speicher für virtuelle Maschinen.  Amazon EBS-Volumes liefern die einheitliche Leistung, die benötigt wird, um Big Data-Verarbeitungslasten wie Ihre eigenen relationalen oder NoSQL-Datenbanken, Unternehmensanwendungen und leistungsstarken verteilten Netzwerkdateisysteme mit kurzer Latenz zu bewältigen.

Weitere Informationen zu Amazon EBS »

diff_aws_report_new
3:01
AWS Report with Deepak Singh, Amazon EC2

NoSQL-Datenspeicher profitieren enorm von der Geschwindigkeit von SSD-Laufwerken (Solid State Drives). Amazon DynamoDB nutzt diese standardmäßig. Doch wenn Sie mit Alternativen aus AWS Marketplace arbeiten, z. B. Cassandra oder MongoDB, können Sie mit der Instance-Klasse "High I/O" Ihren Zugriff auf Terabytes von auf Solid State-Laufwerken gespeicherten Daten bedarfsabhängig beschleunigen.

Weitere Informationen zu den Optionen von EC2-Instance-Typen »

Wenn Sie eine NoSQL-Datenbank ohne den damit verbundenen Betriebsaufwand benötigen, hört Ihre Suche bei Amazon DynamoDB auf.  DynamoDB ist ein schneller vollständig verwalteter NoSQL-Datenbankservice, mit dessen Hilfe beliebig große Datenmengen einfach und wirtschaftlich gespeichert und abgerufen sowie sämtliche Datenverkehrsanforderungen erfüllt werden können. 

Amazon DynamoDB bietet einen garantierten Durchsatz und dank seiner Latenz im einstelligen Millisekundenbereich eignet sich der Service besonders für Online-Spiele, digitale Werbung, mobile Anwendungen und viele andere Big Data-Anwendungen.

Weitere Informationen zu Amazon DynamoDB »

dropcam-video-thumbnail
5:22
Hauptvortrag von Dropcam bei re:invent ansehen


test-database

Weitere Informationen zu Amazon RDS

Die Big Data-Innovation geht über NoSQL hinaus, denn es geht hauptsächlich darum, je nach Ihren Geschäftsanforderungen die für Ihre Daten geeignete Technologie anzubieten. Relationale Datenbanken bieten eine schnelle, berechenbare und einheitliche Leistung und sind für Transaktionsverarbeitungslasten, z. B. Verkaufsstellen und Finanzgeschichte, optimiert.  Relationale Datenbanken spielen in vielen umfangreichen Big Data-Architekturen eine ergänzende Rolle zu NoSQL-Datenbanken.

Mit Amazon RDS ist das Einrichten, Betreiben und Skalieren einer relationalen Datenbank in der Cloud ganz einfach. Dieser Service stellt kosteneffiziente und individuell anpassbare Kapazität zur Verfügung und erledigt gleichzeitig zeitraubende Verwaltungsaufgaben für Datenbanken, sodass Sie sich stärker auf Ihre Anwendungen und Ihr Geschäft konzentrieren können.

Weitere Informationen zu Amazon RDS »

Amazon Redshift stellt ein schnelles, vollständig verwaltetes Data Warehouse im Petabyte-Bereich für unter 1000 USD pro Terabyte im Jahr zur Verfügung. Amazon Redshift bietet eine schnelle Abfrage- und E/A-Leistung für Datenmengen praktisch beliebiger Größe mithilfe einer spaltenbasierten Speichertechnologie und parallelen Verteilung von Abfragen auf mehrere Knoten. Sie können in Minutenschnelle ein vollständig verwaltetes Data Warehouse mit automatischen Backups und integrierter Verschlüsselung bereitstellen. Vorhandene Business Intelligence-Tools lassen sich problemlos einbinden.

Weitere Informationen zu Amazon Redshift »

big_data_redshift
3:22
Einführung in Amazon Redshift

amazon-emr-thumb
Einführung in Amazon Elastic MapReduce

Amazon Elastic MapReduce (EMR) stellt das leistungsstarke Apache Hadoop-Framework in Amazon EC2 als benutzerfreundlichen Managed Service zur Verfügung. Mit Amazon EMR können Sie sich auf Ihre Abfragen vom Typ "Map/Reduce" konzentrieren. Nutzen Sie die breite Palette von Hadoop-Tools, während die Bereitstellung auf einer hochskalierbaren, sicheren Infrastrukturplattform erfolgt. Führen Sie Big Data-Analysen mühelos in der Cloud durch. Lassen Sie Amazon EMR die Arbeit zur Verwaltung Ihrer Hadoop-Cluster übernehmen.

Weitere Informationen zu Amazon EMR »

Wie schnell käme Ihr Projekt mit weiteren 1000 virtuellen Maschinen voran? Und wie mit 10 000? Der in Amazon Elastic MapReduce integrierte Amazon Spot Market lässt Sie Ihren eigenen Preis für die benötigten Datenverarbeitungsressourcen für Analysen mithilfe von Cloud Computing auswählen. Das bedeutet, dass Sie Ihr eigenes Kosten- und Leistungsverhältnis bestimmen und bei Bedarf mehr Spot-Instances hinzuziehen oder die Kosten signifikant senken können.

Erste Schritte mit Spot-Instances »

request_instances
4:13
Erste Schritte mit Spot-Instances

Thumb-GettingStartedWithGlacier
3:17
Das Video "Getting Started with Amazon Glacier" ansehen

Mit Amazon Glacier können Sie die Verwaltungsaufgaben für den Betrieb und die Skalierung von Archivierungsspeichern AWS überlassen und die Daten auf sehr einfache Weise für lange Zeit (Jahre oder Jahrzehnte) aufbewahren.  Amazon Glacier ist ein überaus kostengünstiger Speicher für die Archivierung. Die Preise beginnen bei 0,01 USD pro GB pro Monat. Es fallen keine vorherigen Investitionskosten an und alle laufenden Betriebskosten sind im Preis inbegriffen.

Weitere Informationen zu Amazon Glacier »