Le Blog Amazon Web Services

AWS re:Invent 2019 – 5 tendances observées

AWS RE:Invent 2019 a réuni plus de 65 000 participants du monde entier pour apprendre les tendances qui façonnent le cloud en 2020. Avec de multiples nouvelles fonctionnalités et services annoncés, il peut être difficile de suivre le rythme. Voici cinq des plus grandes tendances perçues lors de la conférence.

01 Éliminer les barrières

Avec 69 zones de disponibilité réparties dans 22 régions AWS à travers le monde, nos clients nous font confiance pour déployer leurs applications critiques, mais certaines applications doivent être exécutées avec une faible latence ( <10 millisecondes), ce qui nécessite de traiter des données en local ou très près des utilisateurs finaux. Lors de re:Invent, nous avons mis en évidence trois services pour réduire la distance et à étendre la portée d’AWS à l’endroit où les clients en ont besoin, que ce soit sur site, dans des centres de population et industriels clés, ou sur leurs appareils mobiles et périphériques 5G.

AWS Outposts sont des racks entièrement gérés et configurables, conçus par AWS, qui apportent des capacités AWS natives à vos data centers locaux, que vous pouvez gèrer à l’aide des APIs et des outils AWS ou VMware. Les zones locales AWS placent certains services AWS à proximité d’un grand bassin de population afin de fournir des applications avec des latences à un chiffre, sans exiger des clients qu’ils construisent et exploitent des centres de données ou des installations de co-location (à Los Angeles uniquement pour le moment). Enfin, AWS Wavelength permet aux développeurs de déployer le calcul et le stockage AWS à la périphérie du réseau 5G, afin de prendre en charge les applications émergentes telles que l’apprentissage automatique à la périphérie, l’IoT industriel et la réalité virtuelle et augmentée sur les appareils mobiles et périphériques.

Avec la sortie d’AWS Outpost, AWS Local Zones et AWS Wavelength, nous modifions l’une des caractéristiques déterminantes du cloud, en rapprochant les services des utilisateurs finaux et en prenant en charge de nouvelles classes d’applications qui s’exécutent localement proches des utilisateurs finaux et se connectent au reste des applications et à l’intégralité des services dans une région AWS.

02 Innover avec des processeurs personnalisés

Lorsque nous avons lancé Amazon EC2 pour la première fois en 2006, la plupart des entreprises construisaient des centres de données autour de processeurs polyvalents prenant en charge un large éventail de charges de travail. En raison des économies d’échelle, les entreprises ne pouvaient tout simplement pas se permettre les investissements massifs nécessaires pour développer des processeurs personnalisés pour des charges de travail spécifiques. Au fur et à mesure que nous avons atteint des millions d’utilisateurs actifs par mois et que les nouvelles charges de travail telles que l’apprentissage automatique, les microservices et les applications Web ont gagné en popularité, nos capacités à attirer une large clientèle a rendu l’investissement dans le matériel personnalisé attrayant. Nous avons réalisé que si nous pouvions développer des processeurs personnalisés offrant de meilleures performances à moindre coût, nous pourrions répercuter ces performances supplémentaires et ces économies sur nos clients.

Lors de re:Invent de cette année, nous avons annoncés le lancement de nouveaux processeurs Graviton, une nouvelle génération conçue par AWS, le Graviton2, et les premières instances d’inférence d’apprentissage automatique EC2 (Inf1), optimisées par Inferentia, l’accélérateur personnalisé d’AWS pour l’inférence AI/ML. Graviton2 est disponible sur les nouvelles versions ARM des familles d’instances Amazon EC2 M, R et C. Il offre jusqu’à 40 % de meilleur rapport prix/performances par rapport aux instances x86 comparables. Avec les instances Amazon EC2 Inf1, les clients bénéficient des performances les plus élevées et du coût le plus bas pour l’inférence AI/ML dans le cloud. Les instances Amazon EC2 Inf1 offrent un débit d’inférence deux fois plus élevé et un coût par inférence jusqu’à 66 % inférieur à celui de la famille d’instances Amazon EC2 G4, qui était déjà l’instance la plus rapide et la moins coûteuse pour les tâches d’inférence disponible dans le cloud.

03 Apporter l’expertise d’Amazon en apprentissage automatique à un plus grand nombre de clients

La demande d’apprentissage automatique continue de croître rapidement. Au cours de la dernière année, nous avons introduit plusieurs services d’IA qui permettent aux développeurs de bénéficier des mêmes technologies d’apprentissage automatique que celles qu’utilisent Amazon pour fournir la meilleure expérience possible à ses clients.

Les clients AWS souhaitent tirer parti de la vaste expérience d’Amazon qui exploite l’apprentissage automatique à grande échelle pour améliorer ses opérations et offrir les meilleures expériences à ses clients, mais tous les clients d’AWS ne sont pas en mesure d’investir dans la création de leurs propres modèles personnalisés. Lors de re:Invent, nous avons annoncé de nouveaux services d’IA qui s’appuient sur l’expérience d’Amazon en matière d’apprentissage automatique, permettant à un plus grand nombre de développeurs d’utiliser l’apprentissage automatique pour créer de meilleures expériences pour les utilisateurs finaux, y compris la recherche de documents alimentée par l’apprentissage automatique, la révision de code et le profilage, ainsi que la détection des fraudes.

Amazon Kendra utilise l’apprentissage automatique pour réinventer la recherche de documents à travers des requêtes en langage naturel et d’autres techniques d’apprentissage automatique, fournissant des résultats de haute qualité au lieu d’une liste aléatoire de liens en réponse à des mots-clés. Amazon CodeGuru utilise l’apprentissage automatique pour automatiser les révisions de code et le profilage des applications. Amazon Fraud Detector est un service entièrement géré qui permet de détecter en temps réel les fraudes potentielles d’identité et de paiement en ligne, sans experience préalable d’apprentissage automatique.

04 Proposer le premier environnement de développement (IDE) pour l’apprentissage automatique

Un IDE est une technologie reconnue dans le développement de logiciels qui donne à un développeur tout ce dont il a besoin pour écrire, construire et tester une application. Bien que les IDE soient disponibles dans le développement de logiciels depuis un certain temps, en raison de la jeunesse relative de l’apprentissage automatique, ces outils n’existaient tout simplement pas pour les applications d’apprentissage automatique — jusqu’à présent.

Des dizaines de milliers de clients utilisent AWS Amazon SageMaker pour accélérer leurs déploiements d’apprentissage automatique, mais tout comme ils résolvent un défi, les clients veulent que nous les aidions à résoudre le prochain défi de la création, de la formation et du déploiement d’apprentissage automatique à grande échelle.

Amazon SageMaker Studio est le premier IDE complet pour l’apprentissage automatique, permettant aux développeurs de créer, de former, d’expliquer, d’inspecter, de surveiller, de déboguer et d’exécuter leurs modèles d’apprentissage automatique à partir d’une seule interface. Les développeurs disposent désormais d’un moyen simple de gérer les workflows de développement d’apprentissage automatique de bout en bout afin qu’ils puissent créer, former et déployer des modèles d’apprentissage automatique de haute qualité plus rapidement et plus facilement.

05 Se préparer à la nouvelle échelle des données

Aujourd’hui, les clients d’AWS essaient régulièrement d’opérer sur des pétaoctets et même des exaoctets de données. Pour fonctionner à cette nouvelle échelle de données, les outils d’analyse doivent changer de manière significative pour une mise à l’échelle efficace. Les clients souhaitent analyser toutes leurs données, quel que soit leur format ou leur emplacement, et les applications doivent être mises à l’échelle pour prendre en charge des millions d’utilisateurs dans le monde entier.

Nous fournissons l’ensemble le plus large et le plus complet de services d’analyse parmis tous les fournisseurs de cloud, et Amazon Redshift est reconnu comme l’entrepôt de données cloud le plus rapide au monde. Lors de re:Invent, nous avons étendu les capacités de Redshift afin d’améliorer encore ses performances et d’offrir plus de flexibilité aux clients afin qu’ils puissent fonctionner efficacement à la nouvelle échelle des données.

Les instances Amazon Redshift RA3 permettent aux clients de mettre à l’échelle le calcul et le stockage séparément et d’offrir des performances 3 fois supérieures à celles des autres fournisseurs d’entrepôts de données cloud. AQUA (Advanced Query Accelerator) pour Amazon Redshift fournit un nouveau cache accéléré matériel innovant qui offre des performances de requête jusqu’à 10 fois supérieures à celles des autres fournisseurs d’entrepôts de données cloud. Amazon Redshift Data Lake Export permet à nos clients d’exporter des données directement depuis Amazon Redshift vers Amazon S3 dans un format de données ouvert (Apache Parquet) optimisé pour l’analyse. Amazon Redshift Federated Query permet aux clients d’analyser les données dans leur entrepôt de données Amazon Redshift, leur lac de données Amazon S3 et leurs bases de données Amazon RDS et Aurora (PostgreSQL).

Pour en savoir plus sur les derniers services présentés lors de re:Invent 2019, consultez la page des nouveautés AWS (ainsi que cette liste de toutes les sessions disponibles sur YouTube) et le podcast AWS en français et ses 4 épisodes spéciaux, dédiés aux nouveautés annoncées pendant cette semaine très chargée.

–seb