Publié le: May 8, 2024
À compter d'aujourd'hui, les instances Amazon Elastic Compute Cloud (Amazon EC2) Inf2 sont généralement disponibles dans les régions Asie-Pacifique (Sydney), Europe (Londres), Europe (Paris), Europe (Stockholm) et Amérique du Sud (São Paulo). Ces instances offrent des performances élevées à moindre coût dans Amazon EC2 pour les modèles d'IA générative.
Vous pouvez utiliser les instances Inf2 pour exécuter des applications courantes telles que la génération de code, de vidéos et d'images, ou encore la synthèse de texte, la reconnaissance vocale, la personnalisation, etc. Les instances Inf2 optimisées dans Amazon EC2 sont les premières à intégrer une inférence distribuée évolutive prise en charge par NeuronLink, une interconnexion haut débit et non bloquante. Les instances Inf2 offrent jusqu'à 2,3 pétaflops et jusqu'à 384 Go de mémoire d'accélérateur totale avec une bande passante de 9,8 To/s.
Le SDK AWS Neuron s'intègre de manière native aux cadres de machine learning les plus courants, afin que vous puissiez continuer à utiliser vos cadres existants pour les déployer sur Inf2. Les développeurs peuvent commencer à utiliser des instances Inf2 à l'aide des AMI AWS Deep Learning, des conteneurs AWS Deep Learning ou des services gérés tels que Amazon Elastic Container Service (Amazon ECS), Amazon Elastic Kubernetes Service (Amazon EKS) et Amazon SageMaker.
Les instances Inf2 sont désormais disponibles en quatre tailles : inf2.xlarge, inf2.8xlarge, inf2.24xlarge et inf2.48xlarge. Elles sont proposées sous forme d'instances à la demande, d'instances réservées et d'instances Spot, ou dans le cadre de Savings Plans, dans 13 régions AWS.
Pour en savoir plus sur les instances Inf2, consultez la page web sur les instances Amazon EC2 Inf2 et la documentation relative à AWS Neuron.