AWS ParallelCluster

Généralités

Q : Quels sont les avantages d'AWS ParallelCluster ?

Vous devez utiliser AWS ParallelCluster si vous souhaitez exécuter des charges de travail de calcul haute performance (HPC) sur AWS. Vous pouvez utiliser AWS ParallelCluster pour créer rapidement des environnements de test pour les applications HPC et l'utiliser comme point de départ pour créer une infrastructure HPC dans le cloud. AWS ParallelCluster minimise les frais d'exploitation liés à la gestion des clusters et simplifie la migration vers le cloud.

Q : Quels types d'application peuvent bénéficier de l'utilisation d'AWS ParallelCluster ?

Les applications de calcul haute performance qui nécessitent un environnement familier de type cluster dans le cloud, telles que les applications MPI et les applications de machine learning utilisant NCCL, sont les plus aptes à bénéficier d'AWS ParallelCluster.

Q : Comment AWS ParallelCluster est-il lié à d'autres services AWS ou fonctionne-t-il avec eux ?

AWS ParallelCluster est intégré à AWS Batch, un planificateur de traitement par lots AWS entièrement géré. AWS Batch peut être considéré comme un remplacement « cloud natif » des planificateur de traitement par lots sur site, avec l'avantage supplémentaire de provisionner les ressources.
AWS ParallelCluster s'intègre également à Elastic Fabric Adapter (EFA) pour les applications qui nécessitent une mise en réseau à faible latence entre les nœuds des clusters HPC. AWS ParallelCluster est également intégré à Amazon FSx pour Lustre, un système de fichiers haute performance offrant un stockage évolutif pour les charges de travail de calcul, et à Amazon Elastic File System.

Q : Que crée AWS ParallelCluster lorsqu'il génère un cluster ?

AWS ParallelCluster provisionne un nœud principal pour la création et le contrôle, un cluster d'instances de calcul, un système de fichiers partagé et un planificateur de traitement par lots. Vous pouvez également étendre et personnaliser vos cas d'utilisation à l'aide d'actions d'amorçage personnalisées avant et après l'installation.

Q : Quels planificateurs de lots fonctionnent avec AWS ParallelCluster ?

AWS ParallelCluster prend en charge AWS Batch, le planificateur de traitement par lots AWS entièrement géré et natif cloud, et est également compatible avec SLURM. 

Q : Quelles distributions Linux sont prises en charge par AWS ParallelCluster ?

AWS ParallelCluster est actuellement compatible avec Amazon Linux 2, Ubuntu 18.04, CentOS 7 et CentOS 8. AWS ParallelCluster fournit une liste d'AMI par défaut (une par distribution Linux compatible par région). Remarque : la disponibilité de la distribution Linux est plus limitée dans les partitions GovCloud et Chine. Vous pouvez en savoir plus sur la compatibilité des distributions en consultant le guide de l'utilisateur d'AWS ParallelCluster à l'adresse suivante : https://docs.aws.amazon.com/parallelcluster/latest/ug/cluster-definition.html#base-os.

En outre, même si votre cluster fonctionne sur Amazon Linux, vous pouvez exécuter l'outil de ligne de commande AWS ParallelCluster pour créer et gérer vos clusters à partir de n'importe quel ordinateur capable d'exécuter Python et de télécharger le package AWS ParallelCluster.

Q : Puis-je utiliser ma propre AMI avec AWS ParallelCluster ?

Il y a trois manières de personnaliser les AMI AWS ParallelCluster. Vous pouvez prendre et modifier une AMI AWS ParallelCluster existante, vous pouvez prendre votre AMI personnalisée existante et y appliquer les changements requis par AWS ParallelCluster, ou vous pouvez utiliser votre propre AMI personnalisée au moment de l'exécution. Pour plus d'informations, consultez https://aws-parallelcluster.readthedocs.io/en/latest/tutorials/02_ami_customization.html.

Q : Est-ce qu'AWS ParallelCluster est compatible avec Windows ?

AWS ParallelCluster n'est pas compatible avec la création de clusters Windows. Vous pouvez toutefois exécuter l'outil de ligne de commande AWS ParallelCluster sur votre machine Windows. Pour plus d'informations, consultez https://docs.aws.amazon.com/parallelcluster/latest/ug/install-windows.html.

Q : Est-ce qu'AWS ParallelCluster prend en charge les instances réservées et les instances Spot ?

Oui. AWS ParallelCluster prend en charge les instances à la demande, réservées et Spot. Notez que le travail fait sur les instances Spot peut être interrompu. Nous vous recommandons d'utiliser les instances Spot uniquement pour les applications flexibles et tolérantes aux pannes.

Q : Puis-je avoir plusieurs types d'instances dans les nœuds de calcul de mes clusters ?

Oui. Vous pouvez avoir plusieurs files d'attente et plusieurs instances par file d'attente.

Q : Quelle taille de cluster puis-je construire avec AWS ParallelCluster ?

Il n'existe aucune limite définie à la taille du cluster construit avec AWS ParallelCluster. Cependant, vous devez tenir compte d'autres contraintes, comme les limites d'instance liées à votre compte. Pour certains types d'instances, les limites par défaut peuvent être inférieures aux tailles des clusters HPC prévues, et il sera nécessaire de faire une demande d'augmentation de la limite avant la création de votre cluster. Pour plus d'informations sur les limites EC2, consultez https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-resource-limits.html.

Q : Est-ce qu'AWS ParallelCluster est compatible avec les groupes de placement ?

Oui. Bien qu'AWS ParallelCluster n'utilise pas de groupe de placement par défaut, vous pouvez l'activer en apportant un groupe de placement existant à AWS ParallelCluster ou en autorisant AWS ParallelCluster à créer un nouveau groupe de placement au lancement. Vous pouvez également configurer l'ensemble du cluster ou seulement les nœuds de calcul pour utiliser le groupe de placement. Pour plus d'informations, consultez https://cfncluster.readthedocs.io/en/latest/configuration.html#placement-group.

Q : Quel type de stockage partagé puis-je utiliser avec AWS ParallelCluster ?

Par défaut, AWS ParallelCluster configure automatiquement un volume externe de 15 Go d'Elastic Block Storage (EBS) attaché au nœud principal du cluster et exporté vers les nœuds de calcul du cluster par le biais de Network File System (NFS). Pour en savoir plus sur la configuration du stockage EBS, consultez https://docs.aws.amazon.com/parallelcluster/latest/ug/ebs-section.html. Le volume de ce stockage partagé peut être configuré pour répondre à vos besoins.

AWS ParallelCluster est également compatible avec Amazon Elastic File System (EFS), RAID et les systèmes de fichiers Amazon FSx pour Lustre. Il est également possible de configurer AWS ParallelCluster avec le stockage d'objets Amazon S3 comme source des entrées de tâches ou comme destination des sorties de tâches. Pour en savoir plus sur la configuration de toutes ces options de stockage avec AWS ParallelCluster, consultez https://docs.aws.amazon.com/parallelcluster/latest/ug/configuration.html.

Q : Combien coûte AWS ParallelCluster ?

AWS ParallelCluster est disponible sans frais supplémentaires, et vous ne payez que les ressources AWS nécessaires à l'exécution de vos applications.

Q : Dans quelles régions est disponible AWS ParallelCluster ?

AWS ParallelCluster est disponible dans les régions suivantes : USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Californie du Nord), USA Ouest (Oregon), UE (Stockholm), UE (Paris), UE (Londres), UE (Francfort), UE (Irlande), UE (Milan), Afrique (Le Cap), Moyen-Orient (Bahreïn), Asie-Pacifique (Mumbai), Asie-Pacifique (Séoul), Asie-Pacifique (Tokyo), Asie-Pacifique (Singapour), Asie-Pacifique (Sydney), Asie-Pacifique (Hong Kong), AWS GovCloud (US, côte est), AWS GovCloud (US, côte ouest), Chine (Beijing) et Chine (Ningxia).

Q : Comment AWS ParallelCluster est-il pris en charge ?

Vous êtes responsable de l'exploitation du cluster, notamment la maintenance nécessaire sur les instances EC2 et les planificateurs de traitement par lots, des correctifs de sécurité, de la gestion des utilisateurs et de la résolution des problèmes de MPI. L'assistance d'AWS ParallelCluster se limite aux problèmes liés à la mise en place des ressources et à l'intégration d'AWS Batch. L'équipe du service AWS Batch s'occupe des problèmes liés aux planificateurs de traitement par lots AWS. Les questions concernant les planificateurs autres qu'AWS doivent être transmises directement à leurs propres communautés de support. Si vous utilisez une AMI personnalisée au lieu de l'une des AMI par défaut d'AWS ParallelCluster, notez qu'AWS ParallelCluster ne prend pas en charge les problèmes de système d'exploitation liés à l'utilisation d'une AMI personnalisée.

Q : Comment AWS ParallelCluster est-il publié ?

AWS ParallelCluster est publié à l'aide du Python Package Index (PyPI) et peut être installé par pip. Le code source d'AWS ParallelCluster est hébergé dans Amazon Web Services sur GitHub à l'adresse https://github.com/aws/aws-parallelcluster.

Elastic Fabric Adapter (EFA)

Q : Pourquoi utiliser EFA ?

EFA garantit un cloud avec une capacité de mise à l’échelle, flexible et élastique pour les applications de calcul haute performance (HPC) étroitement liées. Grâce à EFA, les applications de calcul haute performance étroitement liées ont accès à un débit plus élevé et un niveau de latence plus bas et plus constant, par rapport aux canaux TCP traditionnels. Ainsi, les opérations de mise à l'échelle sont améliorées. Le support EFA peut être activé de manière dynamique, à la demande sur toute instance prise en charge par EC2 sans pré-réservation, vous donnant ainsi la flexibilité de faire face à un marché qui évolue et aux priorités de charge de travail.

Q : Quels types d'application peuvent bénéficier d'EFA ?

Les applications HPC distribuent des charges de travail de calcul à un cluster d’instances pour le traitement en parallèle. La mécanique des fluides numérique (CFD), les simulations de plantage et les simulations climatiques constituent quelques exemples d'applications de calcul haute performance (HPC). Les applications de calcul haute performance sont généralement écrites à l'aide de l'interface MPI (Message Passing Interface) et imposent des exigences strictes en matière de latence et de bande passante pour les communications inter-instances. Les applications qui utilisent MPI et d’autres intergiciels HPC qui prennent en charge la pile de communication libfabric peuvent bénéficier d’EFA.

Q : Comment fonctionne le processus de communication EFA ?

Les appareils EFA proposent toutes les fonctionnalités des appareils Elastic Network Adaptater (ENA), en plus d’une nouvelle interface hardware de contournement du système d’exploitation qui permet aux applications utilisateurs de communiquer directement avec la fonctionnalité de transport fiable fournie par le hardware. La plupart des applications utilisent un intergiciel existant, comme l'interface MPI (Message Passing Interface), pour interagir avec EFA. AWS a collaboré avec plusieurs fournisseurs d'intergiciel pour assurer le support nécessaire pour la fonction de contournement de système d'exploitation d'EFA. Notez que les communications utilisant la fonction de contournement de système d'exploitation se limitent aux instances incluses dans un même sous-réseau d'un Virtual Private Cloud (VPC).

Q : Quels types d'instances prennent en charge EFA ?

EFA est actuellement disponible sur les instances c5n.18xlarge, c5n.metal, i3en.24xlarge, i3en.metal, inf1.24xlarge, m5dn.24xlarge, m5n.24xlarge, r5dn.24xlarge, r5n.24xlarge, p3dn.24xlarge, p4d, m6i.32xlarge, m6i.metal, c6i.32xlarge, c6i.metal, r6i.32xlarge, r6i.metal, x2iezn.12xlarge, x2iezn.metal et hpc6a.48xlarge.

Q : Quelles sont les différences entre une ENI EFA et une ENI ENA ?

Une interface réseau Elastic (ENI) ENA offre des fonctionnalités de réseau IP traditionnelles, nécessaires au support du réseau VPC. Une ENI EFA offre toutes les fonctionnalités d'une ENI ENA, ainsi que la prise en charge matérielle pour permettre aux applications de communiquer directement avec l'ENI EFA, sans passer par le noyau d'instance (communication avec contournement du système d'exploitation), grâce à une interface de programmation étendue. En raison de leurs capacités avancées, les ENI EFA peuvent uniquement être rattachées au lancement de l'instance ou aux instances arrêtées.

Q. Elastic Fabric Adapter (EFA) et Elastic Network Adapter (ENA) Express utilisent tous les deux le protocole Scalable Reliable Datagram (SRD). En quoi diffèrent-elles ?

EFA et ENA Express utilisent tous les deux le protocole SRD créé par AWS. EFA est spécialement conçu pour que les charges de travail étroitement liées disposent de la communication de transport fournie par le hardware vers la couche application. ENA Express est conçu pour utiliser le protocole SRD pour les applications réseau classiques qui se servent des protocoles TCP et UDP.  ENA Express fonctionne également avec une Availability Zone.  

Q : quelles sont les conditions permettant d’activer EFA sur une instance ?

La prise en charge d'EFA peut être activée au lancement de l'instance ou ajoutée à une instance arrêtée. Les dispositifs EFA ne peuvent pas être rattachés à une instance en cours d'exécution.

NICE DCV

Généralités

Q : Pourquoi devrais-je utiliser NICE DCV ?

NICE DCV est un protocole de streaming optimisé pour les graphiques qui est parfaitement adapté à un large éventail de scénarios d'utilisation, comme le streaming d'applications de productivité sur des appareils mobiles ou la visualisation de simulations HPC. Côté serveur, NICE DCV prend en charge Windows et Linux. Côté client, il prend en charge Windows, Linux et MacOS tout en fournissant un client Web aux navigateurs compatibles avec HTML5.

Q : Dois-je télécharger un client natif pour utiliser NICE DCV ?

Non. NICE DCV fonctionne avec tous les navigateurs Web compatibles avec HTML5. Toutefois, les clients natifs prennent en charge des fonctions supplémentaires comme la prise en charge de plusieurs moniteurs, le client natif de Windows étant également compatible avec la prise en charge USB pour les souris 3D, les périphériques de stockage et les cartes à puce. Pour les charges de travail qui ont besoin de ces fonctions, vous pouvez télécharger les clients natifs NICE DCV pour Windows, Linux et MacOS ici.

Q : Quels types d'application peuvent bénéficier de NICE DCV ?

Bien que les performances de NICE DCV ne soient pas liées aux applications, les clients constatent une légère amélioration des performances de streaming quand ils utilisent NICE DCV avec des applications riches en graphiques 3D qui nécessitent une faible latence. Les applications HPC telles que les simulations de séisme ou de réservoir, les analyses de mécanique des fluides numérique (MFN), la modélisation moléculaire en 3D, le compositing VFX, le rendu 3D basé sur les moteurs de jeu sont des exemples d'applications pour lesquels l'avantage des performances de NICE DCV est visible.

Q : Le protocole NICE DCV est-il sûr ?
 
Oui. Le protocole client NICE DCV se charge de transférer de manière sûre et efficace les images générées sur le serveur vers le client et, inversement, permet au client de contrôler le clavier et la souris du serveur. La couche transport du protocole tire parti des protocoles standard WebSocket et TLS, ce qui garantit le plus haut niveau de sécurité et de compatibilité avec toutes les infrastructures réseau.

Q : Quels types d'instances prennent en charge NICE DCV ?

NICE DCV est compatible avec tous les types d'instance d'architecture Amazon EC2 x86-64. Utilisé avec les instances GPU (comme G2, G3 et G4) compatibles avec NVIDIA GRID, NICE DCV s'appuie sur l'encodage matériel pour améliorer les performances et réduire la charge du système.

Activation de NICE DCV

Q :  Dois-je installer un serveur de licence NICE DCV lorsque j'utilise NICE DCV sur Amazon EC2 ?

Non, vous n'avez pas besoin de serveur de licence pour installer et utiliser le serveur NICE DCV sur une instance EC2. Vous devez toutefois configurer votre instance afin de garantir l'accès à un compartiment Amazon S3. Le serveur NICE DCV détecte automatiquement qu'il s'exécute sur une instance Amazon EC2 et se connecte régulièrement au compartiment Amazon S3 pour vérifier si une licence valide est disponible. Pour obtenir plus d'informations sur l'installation de la licence NICE DCV sur Amazon EC2, consultez le document ici.

Q : Puis-je activer NICE DCV sur une instance en cours d'exécution ?

Oui. NICE DCV est un logiciel téléchargeable qui peut être téléchargé et installé sur des sessions en cours d'exécution. Le lien vers la page de téléchargement de NICE DCV se trouve ici.

Q : Quelles distributions Windows et Linux le serveur NICE DCV prend-il en charge ?

La prise en charge des systèmes d'exploitation du serveur NICE DCV est documentée ici.

Utilisation de NICE DCV

Q : Comment puis-je contrôler les performances en temps réel de NICE DCV ?

Les clients NICE DCV sont dotés d'un ruban de barre d'outils affiché en haut de la session à distance quand ils ne sont pas en mode plein écran. Cliquez sur Paramètres >> Mode streaming. Une fenêtre s'affiche invitant les utilisateurs à choisir entre « Meilleure réactivité (par défaut) » et « Meilleure qualité ». Cliquez sur « Afficher les métriques de streaming » en bas de la fenêtre contextuelle pour contrôler les performances en temps réel, la fréquence des images, la latence du réseau et l'utilisation de la bande passante.

Q : Comment puis-je gérer le serveur NICE DCV ?

Le serveur NICE DCV fonctionne sur un service de système d'exploitation. Vous devez vous connecter en tant qu'administrateur (Windows) ou root (Linux) pour lancer, arrêter ou configurer le serveur NICE DCV. Pour en savoir plus, reportez-vous à la documentation ici.

Q : Sur quel port NICE DCV communique-t-il ?

Le serveur NICE DCV communique par défaut sur le port 8443. Vous pouvez indiquez un port TCP personnalisé une fois que vous avez installé le serveur NICE DCV. Le port doit être supérieur à 1024.

Q : Comment activer le partage de GPU sur Linux à l'aide de NICE DCV ?

Le partage de GPU vous permet de partager un ou plusieurs GPU physiques entre plusieurs sessions virtuelles NICE DCV. L'utilisation du partage de GPU vous permet d'utiliser un seul serveur NICE DCV et d'héberger plusieurs sessions virtuelles qui partagent les ressources GPU physiques du serveur. Pour obtenir plus d'informations sur l'activation du partage de GPU, consultez le document ici.

Q : Est-ce que la fonction de partage de GPU de NICE DCV est disponible sur Windows ?

Non, le partage de GPU de NICE DCV n'est disponible que sur les serveurs NICE DCV de Linux.

Q : Que sont les sessions virtuelles et comment puis-je les gérer ?

Les sessions virtuelles sont prises en charge uniquement sur les serveurs NICE DCV de Linux. Un serveur NICE DCV peut héberger plusieurs sessions virtuelles simultanées. Les sessions virtuelles sont créées et gérées par les utilisateurs de NICE DCV. Les utilisateurs de NICE DCV peuvent uniquement gérer les sessions qu'ils ont créées. L'utilisateur root peut gérer toutes les sessions virtuelles qui sont en cours d'exécution sur le serveur NICE DCV. Pour obtenir des informations sur la gestion des sessions virtuelles, consultez le document ici.

NICE EnginFrame

Q : Pourquoi utiliser EnginFrame ?

Vous devez utiliser EnginFrame car il peut augmenter la productivité des spécialistes d'un secteur (par exemple, les scientifiques, les ingénieurs et les analystes) en leur permettant d'étendre au cloud facilement leurs flux de travail et de réduire le délai d'obtention de résultats. EnginFrame réduit la charge de travail des administrateurs pour gérer les ressources AWS, ainsi que les autorisations et l'accès de vos utilisateurs à ces ressources. Ces fonctions vous permettront de gagner du temps, de réduire les erreurs et permettront à vos équipes de se concentrer davantage sur la recherche et le développement innovants plutôt que de se soucier de la gestion de l'infrastructure.

Q : Comment puis-je activer EnginFrame dans mon environnement sur site ?

La version 2021.0 ou ultérieure d'EnginFrame prend en charge le connecteur AWS HPC d'EnginFrame. Une fois que vous avez installé EnginFrame dans votre environnement, les administrateurs peuvent commencer à définir les configurations des clusters AWS à partir du portail des administrateurs.

Q : Comment un administrateur EnginFrame peut installer ou configurer des environnements AWS HPC ?

Les administrateurs EnginFrame peuvent utiliser AWS ParallelCluster pour créer des clusters HPC fonctionnant sur AWS et qui sont prêts à accepter des tâches d'utilisateurs. Pour ce faire, les administrateurs peuvent commencer par créer, modifier ou charger une configuration de cluster ParallelCluster. Au moment de l'étape de création du cluster, les administrateurs créent un nom unique pour un cluster AWS donné et indiquent s'il est accessible à tous les utilisateurs, à un ensemble précis d'utilisateurs et/ou de groupes d'utilisateurs, ou à aucun utilisateur. Une fois le cluster AWS créé, il reste disponible pour accepter les tâches envoyées jusqu'à ce qu'un administrateur le supprime. Par défaut, un cluster AWS qui a été créé n'utilisera que le minimum de ressources requises pour pouvoir accepter les tâches envoyées et augmentera de manière élastique au fur et à mesure que de nouvelles tâches lui seront soumises.

Q : Comment les utilisateurs font-ils leur choix entre exécuter leurs tâches sur site ou sur AWS ?

Pour les services EnginFrame pour lesquels votre administrateur a activé l'option AWS, vous pouvez utiliser un menu déroulant pour sélectionner l'une des files d'attente de calcul disponibles sur site et sur AWS. Les administrateurs peuvent ajouter des descriptions pour vous aider à choisir quelle file d'attente est la mieux adaptée à l'exécution de votre charge de travail.

Q : Quels planificateurs de tâches puis-je utiliser avec EnginFrame sur AWS ? Puis-je en prendre un sur site et un autre sur AWS ?

EnginFrame prend en charge Slurm pour les clusters qui sont créés sur AWS. Vous pouvez également choisir d'utiliser un planificateur différent sur site et sur AWS (par exemple, utiliser LSF sur site et Slurm sur AWS). Dans le cas des services EnginFrame que vous avez installés pour soumettre des tâches à la fois sur site et sur AWS avec différents planificateurs de tâches, les administrateurs doivent s'assurer que chacun de ces planificateurs prend en charge les scripts d'envoi de tâches.

Q : Quels systèmes d'exploitation puis-je utiliser dans AWS ? Puis-je utiliser un système d'exploitation sur site et un autre sur AWS ?

EnginFrame prend en charge les systèmes d'exploitation Amazon Linux 2, CentOS 7, Ubuntu 18.04 et Ubuntu 20.04 sur AWS. Vous pouvez choisir d'utiliser un système d'exploitation sur site différent de celui utilisé sur AWS. Toutefois, si vous décidez d'utiliser EnginFrame pour exécuter la même charge de travail à la fois sur site et sur AWS, nous vous recommandons d'utiliser le même système d'exploitation pour réduire les différences d'environnement et simplifier la portabilité de vos charges de travail.

Q : Combien coûte EnginFrame ?

EnginFrame sur AWS est disponible sans frais supplémentaires. Vous payez les ressources AWS que vous utilisez pour stocker et exécuter vos applications.

Lorsque vous utilisez EnginFrame sur site, vous devrez fournir un fichier de licence. Pour obtenir une licence d'essai ou pour acheter de nouvelles licences de produits, contactez l'un des distributeurs ou revendeurs agréés de NICE qui peut fournir des services de vente, d'installation et de support dans votre pays.

Studio de recherche et d'ingénierie sur AWS

Q : Qu'est-ce que Research and Engineering Studio on AWS ?

Research and Engineering Studio on AWS (RES) est un portail Web open source facile à utiliser qui permet aux administrateurs de créer et de gérer des environnements de recherche et d'ingénierie sécurisés basés sur le cloud. Grâce à RES, les scientifiques et les ingénieurs peuvent visualiser les données et exécuter des applications interactives sans avoir besoin d'une expertise dans le cloud.

Q : Pourquoi utiliser RES ?

Vous devez utiliser RES si vous exécutez des charges de travail d'ingénierie et de recherche et préférez utiliser un simple portail Web pour créer et gérer vos bureaux virtuels sur AWS. RES vous permet de configurer un environnement de bureau virtuel ; de permettre aux chercheurs et aux ingénieurs de créer des bureaux virtuels Windows et Linux et de s'y connecter ; de surveiller, de budgétiser et de gérer une flotte de bureaux virtuels à partir d'une interface unique ; de gérer votre environnement VDI via un portail Web ; et de monter un stockage partagé conformément aux exigences des bureaux virtuels pour un accès facile aux données.  Si les chercheurs et les ingénieurs ont besoin d'interagir avec les résultats et les conceptions et d'en discuter, ou de simuler un cas de test avant de dimensionner une charge de travail d'ingénierie, RES fournit de puissants bureaux virtuels pour ce faire.

Q : Comment gérer le stockage partagé ?
 
Il incombe aux administrateurs RES de créer et de gérer des systèmes de fichiers afin que les utilisateurs disposent des données dont ils ont besoin. RES prend en charge les types de systèmes de fichiers Amazon EFS et Amazon FSx pour NetApp ONTAP, que les administrateurs peuvent créer via RES ou intégrer à des systèmes de fichiers existants. Pour plus de détails sur la gestion et la création du stockage, veuillez consulter la documentation.
 
Q : Comment accéder à la documentation du produit ?
 
Accédez à la documentation RES.

Q : Combien coûte RES ?

RES est disponible sans frais supplémentaires, et vous ne payez que les ressources AWS nécessaires à l'exécution de vos applications.

Q : Dans quelles régions le RES est-il disponible ?

RES est disponible dans un sous-ensemble de régions. Vous trouverez la liste dans la documentation.

Q : Comment le RES est-il pris en charge ?

Vous êtes responsable de la maintenance requise sur les instances EC2 et les planificateurs de lots, de l'application des correctifs de sécurité, de la gestion des utilisateurs et des logiciels exécutés sur les instances de bureau virtuel. Le support RES est limité aux problèmes liés à la constitution des ressources. Si vous utilisez une AMI personnalisée au lieu de l'une des AMI par défaut de RES, veuillez noter que RES ne prend pas en charge les problèmes de système d'exploitation liés à l'utilisation d'une AMI personnalisée.

Q : Quels systèmes d'exploitation sont pris en charge par RES ?

RES est actuellement compatible avec les systèmes d'exploitation Windows et Linux. Pour Linux, RES prend en charge les distributions suivantes : Amazon Linux 2, CentOS 7, Red Hat Enterprise Linux 7, Red Hat Enterprise Linux 8 et Red Hat Enterprise Linux 9.

Comment puis-je obtenir des licences Remote Desktop Services supplémentaires ?

Chaque instance Amazon EC2 est fournie avec deux licences Remote Desktop Services (ou services Terminal) à des fins administratives. Ce Quickstart est conçu pour vous aider à mettre en service ces licences pour vos administrateurs. Vous pouvez également utiliser le gestionnaire de session, d'AWS Systems Manager qui permet l'accès à distance aux instances EC2 sans RDP et sans avoir besoin de licences RDP. Si vous avez besoin de licences Remote Desktop Services supplémentaires, vous pouvez les acheter auprès de Microsoft ou d'un revendeur de licences Microsoft. Les CAL d'utilisateurs Remote Desktop achetées avec un contrat Software Assurance actif bénéficient des avantages du programme License Mobility et peuvent être importées dans des environnements d'allocation par défaut (partagés) AWS. Pour en savoir plus sur l'importation de licences sans les avantages du contrat Software Assurance et du programme Licence Mobility, consultez cette section des Questions fréquentes (FAQ).

Q : Les bureaux virtuels au sein de RES sont-ils compatibles avec les instances Spot ?

Non. Les bureaux virtuels au sein de RES ne prennent en charge que les instances à la demande.
 
Q : Comment est publié RES ?

RES est publié via le référentiel Amazon Web Services sur GitHub. Vous y trouverez des options d'installation.

En savoir plus sur les services AWS pour HPC

En savoir plus sur tous les services AWS à utiliser pour créer une solution HPC sur AWS

En savoir plus 
Créer gratuitement un compte

Obtenez un accès instantané à l'offre gratuite d'AWS. 

S'inscrire 
Premiers pas avec HPC sur AWS

Créez votre premier cluster HPC sur AWS.

Se connecter