Qu'est-ce qu'un GPU ?

Un processeur graphique (GPU) est un circuit électronique capable d'effectuer des calculs mathématiques à grande vitesse. Les tâches informatiques telles que le rendu graphique, le machine learning (ML) et le montage vidéo nécessitent l'application d'opérations mathématiques similaires sur un grand jeu de données. La conception d'un GPU lui permet d'effectuer la même opération sur plusieurs valeurs de données en parallèle. Cela augmente son efficacité de traitement pour de nombreuses tâches de calcul intensives.

Pourquoi les GPU sont-ils importants ?

Un GPU est excellent pour effectuer des traitements parallèles à usage général, mais cela n'a pas toujours été le cas par le passé. Comme leur nom l'indique, les GPU ont été initialement conçus pour une tâche spécifique : contrôler l'affichage des images.

Origine du GPU

Avant le GPU, nous avions des écrans à matrice de points, sortis dans les années 1940 et 1950. Les écrans vectoriels et matriciels sont sortis après, puis les premières consoles de jeux vidéo et premiers PC sont sortis. À l'époque, un appareil non programmable appelé contrôleur graphique coordonnait l'affichage à l'écran. Les contrôleurs graphiques s'appuyaient traditionnellement sur le processeur pour le traitement, même si certains incluaient des processeurs intégrés.

À peu près à la même époque, un projet d'imagerie 3D visait à générer un seul pixel sur un écran à l'aide d'un seul processeur. L'objectif était de produire une image combinant de nombreux pixels en peu de temps. Ce projet est à l'origine du GPU tel que nous le connaissons.

Ce n'est qu'à la fin des années 1990 que les premiers GPU sont apparus. Ils étaient destinés aux marchés des jeux et de la conception assistée par ordinateur (CAO). Le GPU a intégré au contrôleur graphique un moteur de rendu et un moteur de transformation et d'éclairage auparavant basés sur un logiciel, le tout sur une puce programmable. 

Évolution de la technologie GPU

Nvidia a été le premier à commercialiser les GPU GeForce 256 à puce unique en 1999. Les années 2000 et 2010 ont marqué une période de croissance au cours de laquelle les GPU ont acquis des fonctions telles que le lancer de rayons, l'ombrage de maillages et la tessellation matérielle. Cela a conduit à une génération d'images et à des performances graphiques de plus en plus avancées. 

Ce n'est qu'en 2007 que Nvidia a publié CUDA, une couche logicielle rendant le traitement parallèle disponible sur le GPU. À cette époque, il est devenu évident que les GPU étaient très efficaces pour effectuer des tâches très spécifiques. Plus précisément, ils excellaient dans des tâches nécessitant une grande puissance de traitement pour obtenir un résultat particulier.

Lorsque Nvidia a lancé CUDA, elle a ouvert la programmation GPU à un public plus large. Les développeurs pouvaient alors programmer la technologie GPU pour toutes sortes d'applications pratiques nécessitant beaucoup de calcul. L'informatique par GPU a commencé à devenir beaucoup plus courante.

Les GPU sont une puce très demandée pour la blockchain et d'autres applications émergentes. Ils sont de plus en plus orientés vers l'intelligence artificielle et le machine learning (IA/ML).

Quelles sont les applications pratiques d'un GPU ?

Les GPU peuvent être utilisés dans un large éventail d'applications gourmandes en ressources informatiques, notamment les applications financières à grande échelle, les applications de défense et les activités de recherche. Voici quelques-unes des utilisations les plus courantes des GPU aujourd'hui.

Jeu

Les premières applications du GPU qui se sont étendues au-delà des applications de visualisation destinées aux grandes entreprises et aux gouvernements concernaient les jeux personnels. Ils étaient utilisés dans les consoles de jeu des années 1980 et le sont toujours dans les PC et les consoles de jeu actuelles. Les GPU sont essentiels pour les rendus graphiques complexes.

Visualisation professionnelle

Les GPU sont utilisés dans des applications professionnelles telles que le dessin assisté par ordinateur, le montage vidéo, les présentations de produits et l'interactivité, l'imagerie médicale et l'imagerie sismique. Ils sont également utilisés dans d'autres applications complexes de montage et de visualisation d'images et de vidéos. Les applications basées sur un navigateur peuvent même exploiter le GPU via des bibliothèques telles que WebGL.

Machine learning

La formation d'un modèle de machine learning (ML) nécessite une grande puissance de calcul. Ils peuvent désormais fonctionner sur des GPU pour des résultats accélérés. Bien que l'entraînement d'un modèle sur du matériel acheté par vous-même puisse prendre du temps, vous pouvez obtenir des résultats rapidement en utilisant un GPU cloud.

Blockchain

Les cryptomonnaies reposent sur des blockchains. Un type particulier de blockchain, la preuve de travail, repose généralement largement sur les GPU pour fonctionner. Les circuits intégrés spécifiques à l'application (ASIC), une puce similaire mais différente, remplacent désormais couramment le traitement par GPU pour la blockchain.

Preuve d'enjeu : les preuves algorithmiques de la blockchain éliminent le besoin d'énormes quantités de puissance de calcul, mais les preuves de travail sont toujours omniprésentes.

Simulation

Les applications de simulation avancées telles que celles utilisées dans les domaines de la dynamique moléculaire, des prévisions météorologiques et de l'astrophysique peuvent toutes être réalisées par le biais de GPU. Les GPU sont également à l'origine de nombreuses applications dans le domaine de la conception automobile et de grands véhicules, notamment la dynamique des fluides.

Comment fonctionne un GPU ?

Les GPU modernes contiennent généralement un certain nombre de multiprocesseurs. Chacun possède un bloc de mémoire partagée, ainsi qu'un certain nombre de processeurs et de registres correspondants. Le GPU proprement dit possède une mémoire constante, plus la mémoire de l'appareil sur la carte mère sur laquelle il est logé. 

Chaque GPU fonctionne légèrement différemment en fonction de son objectif, du fabricant, des spécificités de la puce et du logiciel utilisé pour coordonner le GPU. Par exemple, le logiciel de traitement parallèle CUDA de Nvidia permet aux développeurs de programmer spécifiquement le GPU en pensant à presque toutes les applications de traitement parallèle à usage général. 

Les GPU peuvent être des puces autonomes, appelées GPU discrets, ou intégrées à d'autres matériels informatiques, appelées GPU intégrés (iGPU).

GPU discrets

Les GPU discrets existent sous la forme d'une puce entièrement dédiée à la tâche à accomplir. Alors que cette tâche était traditionnellement réservée aux graphiques, les GPU discrets peuvent désormais être utilisés comme traitement dédié pour des tâches telles que le machine learning ou les simulations complexes.

Lorsqu'il est utilisé en graphisme, le GPU réside généralement sur une carte graphique insérée dans une carte mère. Dans d'autres tâches, le GPU peut résider sur une autre carte ou dans un autre emplacement directement sur la carte mère elle-même. 

GPU intégrés

Au début des années 2010, nous avons commencé à constater un abandon des GPU discrets. Les fabricants ont adopté l'introduction du processeur et du GPU combinés sur une puce, connue sous le nom d'iGPU. Les premiers de ces iGPU pour PC étaient les gammes Celeron, Pentium et Core d'Intel. Ils restent populaires sur les ordinateurs portables et les PC. 

Un autre type d'iGPU est le système sur puce (SoC) qui contient des composants tels qu'un processeur, un GPU, une mémoire et un réseau. Ce sont les types de puces présents généralement dans les smartphones.

Virtuelle

Comme les autres types d'infrastructure matérielle informatique, les GPU peuvent également être virtualisés. Les GPU virtualisés sont une représentation logicielle d'un GPU qui partage l'espace avec d'autres GPU virtuels sur des instances de serveur cloud. Vous pouvez les utiliser pour exécuter vos charges de travail sans avoir à vous soucier de la maintenance matérielle sous-jacente.

Quelle est la différence entre un GPU et un processeur ?

La principale différence entre un processeur et un GPU est leur fonction dans un système informatique. Ils ont des rôles différents selon le système. Par exemple, ils ont des objectifs différents dans un appareil de jeu portable, un PC et un superordinateur doté de plusieurs armoires de serveur.

En général, le processeur gère le contrôle complet du système ainsi que les tâches de gestion et d'utilisation générale. À l'inverse, le GPU gère les tâches gourmandes en ressources informatiques telles que le montage vidéo ou le machine learning.

Plus précisément, les processeurs sont optimisés pour effectuer des tâches comme celles-ci :

  • Gestion du système
  • Multitâche entre différentes applications
  • Opérations d'entrée et de sortie
  • Fonctions du réseau
  • Contrôle des périphériques
  • Mémoire et système de stockage multitâche

Quelle est la différence entre un GPU et une carte graphique ?

Les termes processeur graphique et carte graphique sont souvent utilisés de manière interchangeable, mais ils ne sont pas identiques.

Les cartes graphiques sont des cartes d'extension (AIB) qui s'insèrent dans un emplacement sur la carte mère d'un ordinateur. Les cartes graphiques ne sont pas intégrées à l'ordinateur lui-même ; ce sont des cartes interchangeables. Une carte graphique est livrée avec un GPU.

Le GPU est le composant principal des cartes graphiques. Il existe aux côtés d'autres composants tels que la RAM vidéo (VRAM) pour la mémoire vidéo, les ports (tels que HDMI ou DisplayPort) et un composant de refroidissement. Cependant, un GPU peut également être intégré directement à la carte mère ou intégré sous forme de puce tout-en-un avec d'autres composants.

Que peut apporter AWS pour répondre à vos besoins en matière de GPU ?

Amazon Web Services (AWS) propose Amazon Elastic Compute Cloud (Amazon EC2), la plateforme de calcul la plus vaste et complète.

Amazon EC2 compte plus de 500 instances et vous pouvez choisir le processeur, le stockage, le réseau, le système d'exploitation et le modèle d'achat les plus récents. Il peut facilement répondre aux besoins de votre charge de travail.

Avec Amazon EC2, il est facile de louer et d'exécuter des GPU dans le cloud. Tirez parti de la puissance de traitement des GPU pour le montage vidéo, le rendu graphique, l'intelligence artificielle (IA) et d'autres fonctionnalités de traitement parallèle.

Les instances Amazon EC2 peuvent s'adapter à presque tous les types de charge de travail :

  • Les instances P2 sont destinées aux applications de calcul GPU à usage général.
  • Les instances Amazon EC2 P5 disposent de huit GPU intégrés. Il s'agit de la dernière génération d'instances basées sur un GPU. Ces instances offrent les performances les plus élevées d'Amazon EC2 pour le deep learning et le calcul haute performance (HPC).
  • Les instances Amazon EC2 G5 sont alimentées par des processeurs AWS Graviton2 et sont équipées de GPU NVIDIA T4G Tensor Core. Elles offrent le meilleur rapport qualité-prix dans Amazon EC2 pour les charges de travail graphiques comme le streaming de jeux Android.

Commencez à utiliser les GPU sur AWS en créant un compte dès aujourd'hui.

Prochaines étapes sur AWS

Consultez d'autres ressources liées aux produits
Consultez les services de calcul 
Créer gratuitement un compte

Obtenez un accès instantané à l'offre gratuite AWS.

S'inscrire 
Commencez à créer sur la console

Démarrez la création dans la console de gestion AWS.

Se connecter