AWS ParallelCluster

Aspectos generales

P: ¿Por qué debo utilizar AWS ParallelCluster?

Recomendamos usar AWS ParallelCluster si quiere ejecutar cargas de trabajo con computación de alto rendimiento (HPC) en AWS. Puede utilizar AWS ParallelCluster para crear entornos de prueba rápidamente para aplicaciones HPC, y también como el punto de partida para crear infraestructura HPC en la nube. AWS ParallelCluster minimiza la carga operativa vinculada con la administración de clústeres y simplifica la migración a la nube.

P: ¿Qué tipos de aplicaciones se pueden beneficiar del uso de AWS ParallelCluster?

Lo más probable es que las aplicaciones de HPC que requieren de un ambiente familiar al clúster en la nube, como las aplicaciones MPI y aplicaciones de machine learning que usan NCCL, se beneficien con AWS ParallelCluster.

P: ¿Cómo es la interacción de AWS ParallelCluster con los demás servicios de AWS?

AWS ParallelCluster está integrado con AWS Batch, un programador de lotes de AWS completamente administrado. AWS Batch puede ser considerado como un reemplazo “nativo en la nube” para programadores de lotes locales, más el beneficio de aprovisionar recursos.
AWS ParallelCluster también está integrado con Elastic Fabric Adapter (EFA) para aplicaciones que requieran redes de baja latencia entre nodos de clústeres de HPC. AWS ParallelCluster también está integrado con Amazon Elastic File System (Amazon EFS) y Amazon FSx para Lustre, un sistema de archivos de alto rendimiento con almacenamiento escalable para cargas de trabajo informáticas.

P: ¿Qué es lo que crea AWS ParallelCluster cuando genera un clúster?

AWS ParallelCluster aprovisiona un nodo principal para la creación y el control, un clúster de instancias informáticas, un sistema de archivos compartidos y un programador de lotes. Además, puede extender y personalizar sus casos de uso con la acciones de arranque personalizadas antes y después de la instalación.

P: ¿Cuáles son los programadores de lotes que funcionan con AWS ParallelCluster?

AWS ParallelCluster es compatible con AWS Batch, el programador de lotes nativo en la nube de AWS completamente administrado. También es compatible con SLURM. 

P: ¿Cuáles son las distribuciones de Linux que son compatibles con AWS ParallelCluster?

Actualmente, AWS ParallelCluster es compatible con Amazon Linux 2, Ubuntu 18.04, CentOS 7 y CentOS 8. AWS ParallelCluster proporciona una lista de AMI por defecto (una por distribución de Linux compatible por región) disponibles para su uso. Tenga en cuenta que la disponibilidad de distribución de Linux es más limitada en las particiones de GovCloud y China. Puede conocer más sobre la compatibilidad de distribución en la Guía del usuario de AWS ParallelCluster en https://docs.aws.amazon.com/parallelcluster/latest/ug/cluster-definition.html#base-os.

Además, mientras su clúster se ejecuta en Amazon Linux, puede ejecutar también la herramienta de la línea de comandos de AWS ParallelCluster para crear y administrar sus clústeres desde cualquier computadora capaz de ejecutar Python y descargar el paquete de AWS ParallelCluster.

P: ¿Puedo usar mi propia AMI con AWS ParallelCluster?

Hay tres maneras de personalizar sus AMI de AWS ParallelCluster. Puede tomar una AMI ya existente y modificarla, también puede usar su AMI personalizada y aplicar los cambios necesarios que AWS ParallelCluster requiera o puede utilizar su propia AMI personalizada durante la ejecución. Para más información, visite https://aws-parallelcluster.readthedocs.io/en/latest/tutorials/02_ami_customization.html.

P: ¿AWS ParallelCluster es compatible con Windows?

AWS ParallelCluster no es compatible con la creación de clústeres en Windows. Sin embargo, puede ejecutar la línea de comandos de AWS ParallelCluster en su equipo de Windows. Para obtener más información, visite https://docs.aws.amazon.com/parallelcluster/latest/ug/install-windows.html.

P: ¿AWS ParallelCluster es compatible con las instancias reservadas y con las instancias de spot?

Sí. AWS ParallelCluster es compatible con instancias bajo demanda, reservadas y de spot. Tenga en cuenta que el trabajo realizado en instancias de spot puede interrumpirse. Le recomendamos usar instancia de spot solo para aplicaciones flexibles y tolerantes a errores.

P: ¿Puedo tener varios tipos de instancia en los nodos informáticos de mi clúster?

Sí. Puede tener varias colas y varias instancias en cada cola.

P: ¿Qué tan grandes pueden ser los clústeres que puedo crear con AWS ParallelCluster?

No hay limitaciones de tamaño para crear clústeres con AWS ParallelCluster. Sin embargo, existen algunas limitaciones que debe considerar, como los límites de instancia que tiene en su cuenta. Para algunos tipos de instancia, los límites por defecto pueden ser menores que los tamaños esperados del clúster de HPC y será necesario limitar las solicitudes de incremento antes de crear su clúster. Para obtener más información sobre los límites de EC2, visite https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-resource-limits.html.

P: ¿AWS ParallelCluster es compatible con el uso de grupos de colocación?

Sí. A pesar de que AWS ParallelCluster no utilice un grupo de colocación por defecto, puede activarlo si proporciona un grupo de colocación ya existente o puede permitir que AWS ParallelCluster cree uno al momento del lanzamiento. También puede configurar el clúster completo o solo los nodos de cómputo para utilizar el grupo de colocación. Para obtener más información, visite https://cfncluster.readthedocs.io/en/latest/configuration.html#placement-group.

P: ¿Qué clase de almacenamiento compartido puedo usar con AWS ParallelCluster?

Por defecto, AWS ParallelCluster configura de forma automática un volumen externo de 15 GB de Elastic Block Store (EBS) adjunto al nodo maestro del clúster y exportado a los nodos de cómputo del clúster mediante Network File System (NFS). Para conocer más sobre cómo configurar el almacenamiento de EBS, visite https://docs.aws.amazon.com/parallelcluster/latest/ug/ebs-section.html. El volumen de este almacenamiento compartido puede configurarse acorde a sus necesidades.

AWS ParallelCluster es, además, compatible con Amazon Elastic File System (EFS), RAID y los sistemas de archivo de Amazon FSx para Lustre. También es posible configurar AWS ParallelCluster con el almacenamiento de objetos de Amazon S3 como fuente de entrada o como destino de salida de trabajos. Para obtener más información sobre cómo configurar todas estas opciones de almacenamiento con AWS ParallelCluster, visite https://docs.aws.amazon.com/parallelcluster/latest/ug/configuration.html.

P: ¿Cuánto cuesta AWS ParallelCluster?

AWS ParallelCluster está disponible sin cargo adicional y solo paga por los recursos de AWS necesarios para ejecutar sus aplicaciones.

P: ¿En qué regiones está disponible AWS ParallelCluster?

AWS ParallelCluster está disponible en las siguientes regiones: Este de EE. UU. (Norte de Virginia), Este de EE. UU. (Ohio), Oeste de EE. UU. (Norte de California), Oeste de EE. UU. (Oregón), UE (Estocolmo), UE (París), UE (Londres), UE (Fráncfort), UE (Irlanda), UE (Milán), África (Ciudad del Cabo), Oriente Medio (Baréin), Asia-Pacífico (Bombay), Asia-Pacífico (Seúl), Asia-Pacífico (Tokio), Asia-Pacífico (Singapur), Asia-Pacífico (Sídney), Asia-Pacífico (Hong Kong), AWS GovCloud (Este de EE. UU.). AWS GovCloud (Oeste de EE. UU.), China (Pekín) y China (Ningxia).

P: ¿Cómo se mantiene AWS ParallelCluster?

Usted es responsable de operar el clúster, incluido el mantenimiento requerido para las instancias EC2 y los programadores de lotes, revisiones de seguridad, administración del usuario y solución de problemas relacionados con MPI. El soporte de AWS ParallelCluster se limita a asuntos relacionados con la creación de los recursos y de la integración con AWS Batch. Los problemas de programador de AWS Batch los recibe el equipo de servicios de AWS Batch. Las preguntas relacionadas a programadores que no sean de AWS deben estar dirigidas a sus propias comunidades de ayuda. Si utiliza una AMI personalizada en vez de una predeterminada por AWS ParallelCluster, recuerde que AWS ParallelCluster no responde por ninguna cuestión de SO relacionada con una AMI personalizada.

P. ¿Cómo se lanza AWS ParallelCluster?

AWS ParallelCluster se lanza mediante Python Package Index (PyPI) y puede instalarse a través de pip. El código fuente de AWS ParallelCluster está alojado en el repositorio de Amazon Web Services en GitHub en https://github.com/aws/aws-parallelcluster.

Elastic Fabric Adapter (EFA)

P: ¿Por qué debería utilizar EFA?

EFA aporta la escalabilidad, la flexibilidad y la elasticidad de la nube a aplicaciones de computación de alto rendimiento (HPC) estrechamente vinculadas. Con EFA, estas aplicaciones tienen acceso a una latencia más baja y uniforme, y a un rendimiento más alto que los canales TCP tradicionales, lo que permite un mejor escalado. El soporte EFA se puede habilitar de manera dinámica y a pedido en cualquier instancia que soporte EC2 sin reserva previa, lo cual le brinda la flexibilidad de responder a cambios en los negocios y prioridades en la carga de trabajo.

P: ¿Qué tipos de aplicaciones se pueden beneficiar del uso de EFA?

Las aplicaciones de HPC distribuyen cargas de trabajo computacional a lo largo de un clúster de instancias de procesamiento paralelo. Algunos ejemplos de aplicaciones de HPC incluyen la dinámica de fluidos computacional (CFD), simulaciones de bloqueos y simulaciones meteorológicas. Por lo general, las aplicaciones de HPC se escriben con Message Passing Interface (MPI, Interfaz de Paso de Mensajes) e imponen requisitos estrictos en términos de latencia y ancho de banda para la comunicación entre instancias. Aplicaciones usando MPI y otros middleware de HPC que soportan la pila de comunicación de libfabric pueden beneficiarse de EFA.

P: ¿Cómo funciona la comunicación con EFA?

Los dispositivos EFA brindan todas las funciones de los dispositivos de Elastic Network Adapter (ENA) más OS bypass, una nueva interfaz de hardware que permite que las aplicaciones del espacio del usuario puedan comunicarse directamente con el hardware, siempre y cuando haya un transporte de funcionabilidad fiable. La mayoría de las aplicaciones utilizan middleware existente, como MPI, para comunicarse con EFA. AWS ha trabajado con una cantidad de proveedores de middleware para garantizar la compatibilidad con la funcionalidad de omisión del sistema operativo que ofrece EFA. Tenga en cuenta que la comunicación mediante la funcionalidad de omisión del sistema operativo se limita a instancias dentro de una misma subred de una Virtual Private Cloud (VPC).

P: ¿Qué tipos de instancias son compatibles con EFA?

En este momento, EFA está disponible en los tamaños de instancia c5n.18xlarge, c5n.metal, i3en.24xlarge, i3en.metal, inf1.24xlarge, m5dn.24xlarge, m5n.24xlarge, r5dn.24xlarge, r5n.24xlarge, p3dn.24xlarge, p4d, m6i.32xlarge, m6i.metal, c6i.32xlarge, c6i.metal, r6i.32xlarge, r6i.metal, x2iezn.12xlarge, x2iezn.metal y hpc6a.48xlarge.

P: ¿Cuáles son las diferencias entre una ENI EFA y una ENI ENA?

Una interfaz de red elástica (ENI) de ENA brinda las características tradicionales de las redes IP necesarias para soportar las redes VPC. Por su parte, una ENI EFA proporciona toda la funcionalidad de una ENI ENA, además de compatibilidad de hardware para que las aplicaciones se comuniquen directamente con la ENI EFA, sin involucrar el kernel de la instancia (comunicación de omisión del sistema operativo), por medio de una interfaz de programación extendida. Debido a las capacidades avanzadas de las ENI EFA, estas solo se pueden asociar durante el lanzamiento o a instancias detenidas.

P: Elastic Fabric Adapter (EFA) y Elastic Network Adapter (ENA) Express utilizan el diagrama Scalable Reliable Diagram (SRD). ¿En qué se diferencian?

Tanto EFA como ENA Express utilizan el protocolo SRD creado por AWS. EFA está diseñado para que las cargas de trabajo altamente acopladas tengan un transporte de comunicación directo hacia la capa de la aplicación brindado por el hardware. ENA Express está diseñado para utilizar el protocolo SRD para aplicaciones de redes tradicionales que utilizan protocolos TCP y UDP.  ENA Express también trabaja dentro de una zona de disponibilidad.  

P: ¿Cuáles son los requisitos previos para habilitar EFA en una instancia?

La compatibilidad con EFA se puede habilitar en el lanzamiento de la instancia o agregar a una instancia detenida. Los dispositivos con EFA no se pueden asociar a una instancia en ejecución.

NICE DCV

Aspectos generales

P: ¿Por qué debería usar NICE DCV?

NICE DCV es un protocolo de streaming con gráficos óptimos que encaja muy bien en un amplia gama de usos probables, desde aplicaciones de productividad en dispositivos hasta visualizaciones simuladas de HPC. Del lado del servidor, NICE DCV es compatible con Windows y Linux. Del lado del cliente, es compatible con Windows, Linux y macOS y también proporciona un cliente web para navegadores HTML5 mediante dispositivos.

P: ¿Es necesario descargar un cliente nativo para usar NICE DCV?

No es necesario. NICE DCV funciona con cualquier navegador web HTML5. Sin embargo, los clientes nativos son compatibles con funciones adicionales como compatibilidad con múltiples soportes, con el cliente nativo de Windows que también es compatible con ratones 3D, con dispositivos de almacenamiento y con tarjetas inteligentes. Para las cargas de trabajo que necesitan estas funciones, puede descargar clientes nativos de NICE DCV para Windows, Linux y MacOS aquí.

P: ¿Qué tipos de aplicaciones se pueden beneficiar del uso de NICE DCV?

Mientras que el rendimiento de NICE DCV es independiente de la aplicación, los clientes observan un beneficio de rendimiento perceptible del streaming cuando utilizan NICE DCV con aplicaciones con gráficos intensivos 3D que requieren de baja latencia. Las aplicaciones HPC como las simulaciones sísmicas y de yacimientos, los análisis de dinámica de fluidos computacional (DCF), el modelado molecular 3D, la composición VFX y el renderizado 3D con base en motor de juegos son algunos ejemplos en donde el beneficio del rendimiento de NICE DVS es evidente.

P: ¿El protocolo de NICE DCV es seguro?
 
Sí. El protocolo personalizado de NICE DCV se encarga de transferir al cliente, de manera segura y eficaz, las imágenes generadas en el servidor y, por otro lado, permite al cliente controlar el ratón y el teclado del servidor. La capa de transporte del protocolo aprovecha las tecnologías estándar de WebSocket y de TLS. Esto asegura el mayor nivel de seguridad y compatibilidad con cualquier infraestructura de la red.

P: ¿Qué tipos de instancias son compatibles con NICE DCV?

NICE DCV es compatible con todos los tipos de instancia de Amazon EC2 x86-64 basadas en arquitectura. Cuando se usa con instancias GPU compatibles con NVIDIA GRID (como G2, G3 y G4), NICE DCV aprovechará la codificación del equipo para mejorar el rendimiento y reducir la carga del sistema.

Cómo habilitar NICE DCV

P: ¿Debo instalar un servidor de licencias NICE DCV para usarlo en Amazon EC2?

No, no es necesario tener una licencia de servidor para instalar y usar el servidor NICE DCV en una instancia EC2. Sin embargo, es necesario configurar la instancia para garantizar el acceso a un bucket de Amazon S3. El servidor de NICE DCV detecta de forma automática que está funcionando en una instancia de Amazon EC2 y que de manera periódica se conecta al bucket de Amazon S3 para determinar si hay licencias válidas disponibles. Para obtener más información acerca de cómo configurar la licencia de NICE DCV en Amazon EC2, diríjase aquí para ver el documento.

P: ¿Puedo activar NICE DCV en una instancia que está en funcionamiento?

Sí. NICE DCV es un software descargable que puede bajarse e instalarse durante sesiones activas. El enlace para descargar NICE DCV se encuentra aquí.

P: ¿Cuáles son las distribuciones de Windows y de Linux que son compatibles con el servidor de NICE DCV?

Puede encontrar la compatibilidad del servidor de NICE DCV con sistemas operativos aquí.

Cómo usar NICE DCV

P: ¿Cómo puedo monitorear el rendimiento de NICE DCV en tiempo real?

Los clientes de NICE DCV tienen una cinta en la barra de herramientas en la parte superior de la sesión remota cuando no está en pantalla completa. Haga clic en Settings (Configuración) >> Streaming Mode (Modo de streaming). A continuación, se abrirá una ventana en la cual los usuarios podrán elegir entre “Best responsiveness” (Mejor capacidad de respuesta) (por defecto) y “Best quality” (Mejor calidad). En la parte inferior de la ventana emergente, haga clic en “Display Streaming Metrics” (Mostrar métricas de streaming) para evaluar la velocidad de fotogramas en tiempo real, la latencia de red y uso de banda ancha.

P: ¿Cómo administro el servidor de NICE DCV?

El servidor de NICE DCV funciona como un servicio de sistema operativo. Debe iniciar sesión como administrador (Windows) o usuario raíz (Linux) para iniciar, detener o configurar el servidor de NICE DCV. Para obtener más información, consulte el documento que se encuentra en esteenlace.

P: ¿Con qué puerto se comunica NICE DCV?

De forma predeterminada, el servidor NICE DCV está configurado para comunicarse con el puerto 8443. Puede especificar un puerto TCP personalizado luego de instalar el servidor. El puerto debe ser mayor que 1024.

P: ¿Cómo activo el uso compartido de GPU en Linux con NICE DCV?

El uso compartido de GPU permite que pueda compartir más de un GPU físico entre sesiones virtuales múltiples de NICE DCV. El uso compartido le permite usar un solo servidor NICE DCV y ser el host de varias sesiones virtuales múltiples que comparten los recursos físicos del GPU del servidor. Para saber más sobre cómo activar el uso compartido de GPU, diríjase al documento que se encuentra aquí.

P: ¿Está disponible la función de uso compartido de GPU en NICE DCV en Windows?

No, la función solo se encuentra disponible en los servidores NICE DCV de Linux.

P: ¿Qué son las sesiones virtuales y cómo las administro?

Las sesiones virtuales son compatibles solamente con servidores NICE DCV de Linux. Un servidor NICE DCV puede ser el host de varias sesiones virtuales en simultáneo. Las sesiones virtuales son creadas y administradas por usuarios de NICE DCV. Los usuarios solo pueden administrar sesiones que hayan creado. El usuario raíz puede administrar todas las sesiones virtuales que estén en ejecución en el servidor de NICE DCV. Para obtener instrucciones sobre cómo administrar sesiones virtuales visite este enlace.

NICE EnginFrame

Q: ¿Por qué debería usar EnginFrame?

Debería usar EnginFrame porque puede aumentar la productividad de los especialistas del dominio (científicos, ingenieros, analistas) al permitirles extender sus flujos de trabajo a la nube con facilidad y reducir los tiempos de espera. EnginFrame reduce la sobrecarga para los administradores al gestionar los recursos de AWS, como también sus permisos de usuario y el acceso a estos recursos. Con estas funciones ganará tiempo, minimizará los errores y permitirá a sus equipos centrarse más en realizar investigaciones y desarrollos innovadores en vez de tener que preocuparse por la gestión de la infraestructura.

P: ¿Cómo activo EnginFrame en mi entorno local?

EnginFrame AWS HPC Connector es compatible con la versión 2021.0 o posterior de EnginFrame. Una vez que haya instalado EnginFrame en su entorno, los administradores pueden comenzar a definir las configuraciones del clúster desde el Portal del administrador.

P: ¿Cómo puede un administrador de EnginFrame instalar y configurar los entornos de AWS HPC?

Los administradores de EnginFrame pueden usar AWS ParallelCluster para crear clústeres de HPC que se ejecuten en AWS y estén listos para aceptar trabajos de los usuarios. Para hacerlo dentro de EnginFrame, los administradores pueden empezar por crear, editar o subir una configuración de clúster de ParallelCluster. Como parte del proceso de creación del clúster, los administradores generan un nombre único para un determinado clúster y especifican si es accesible para todos los usuarios, un grupo específico de usuarios o ninguno. Una vez creado el clúster de AWS, este seguirá disponible para aceptar trabajos hasta que un administrador lo quite. Por defecto, un clúster de AWS en estado Created (Creado) usará solamente el mínimo de los recursos necesarios, con el fin de estar listo para aceptar los trabajos entregados y escalar verticalmente de forma elástica a medida que se entreguen.

P: ¿Cómo pueden elegir los usuarios entre realizar sus trabajos de forma local o en AWS?

Para los servicios de EnginFrame para los cuales su administrador habilitó AWS como opción, puede utilizar un menú desplegable para elegir cualquiera de las colas de cómputo disponibles en AWS y localmente. Los administradores pueden incluir descripciones de texto para ayudar a elegir la cola apropiada para ejecutar su carga de trabajo.

P: ¿Qué programadores de trabajos puedo usar con EnginFrame en AWS? ¿Puedo usar un programador de forma local y otro en AWS?

EnginFrame es compatible con Slurm para los clústeres generados en AWS. También puede elegir un programador para el entorno local diferente al de AWS (p. ej., usar LSF de forma local y Slurm en AWS). En el caso de los servicios de EnginFrame que configure para entregar trabajos, tanto a nivel local como en AWS mediante distintos programadores de trabajo, los administradores deberán asegurar que los scripts de cualquier trabajo entregado admitan el trabajo de cada uno de estos programadores.

P: ¿Qué sistemas operativos puedo utilizar en AWS? ¿Puedo usar un sistema operativo de forma local y otro distinto para AWS?

En AWS, EnginFrame es compatible con los sistemas operativos Linux 2, CentOS 7, Ubuntu 18.04 y Ubuntu 20.04. A nivel local, puede elegir un sistema operativo diferente al que utiliza en AWS. Sin embargo, si desea utilizar EnginFrame para ejecutar la misma carga de trabajo tanto a nivel local como en AWS, recomendamos usar el mismo sistema operativo para reducir las diferencias de entorno y simplificar la portabilidad de sus cargas de trabajo.

P: ¿Qué costo tiene EnginFrame?

No se aplican cargos adicionales por utilizar EnginFrame en AWS. Usted paga solamente por los recursos de AWS que use para almacenar y ejecutar sus aplicaciones.

Cuando utilice EnginFrame de forma local, se le pedirá el archivo de licencia. Para obtener la licencia de evaluación o comprar nuevas licencias de producción, contacte con alguno de los distribuidores o vendedores autorizados de NICE que ofrezcan la venta del producto, los servicios de instalación y el soporte técnico en su país.

Research and Engineering Studio en AWS

P:¿Qué es Research and Engineering Studio en AWS?

Research and Engineering Studio (Estudio de Investigación e Ingeniería) en AWS (RES) es un portal web de código abierto y fácil de usar para que los administradores creen y administren entornos seguros de investigación e ingeniería basados en la nube. Con RES, los científicos e ingenieros pueden visualizar los datos y ejecutar aplicaciones interactivas sin la necesidad de tener experiencia en la nube.

P: ¿Por qué debería usar RES?

Debe usar RES si ejecuta cargas de trabajo de ingeniería e investigación y prefiere usar un portal web sencillo para crear y administrar sus escritorios virtuales en AWS. RES le permite configurar un entorno de escritorio virtual; permitir a los investigadores e ingenieros crear escritorios virtuales de Windows y Linux y conectarse a ellos; supervisar, presupuestar y administrar una flota de escritorios virtuales desde una única interfaz; administrar su entorno de VDI a través de un portal basado en la web; y montar el almacenamiento compartido de acuerdo con los requisitos de los escritorios virtuales para facilitar el acceso a los datos.  Si los investigadores e ingenieros necesitan interactuar con los resultados y los diseños y analizarlos, o simular un caso de prueba antes de escalar una carga de trabajo de ingeniería, RES proporciona escritorios virtuales potentes para hacerlo.

P: ¿Cómo administro el almacenamiento compartido?
 
Es responsabilidad de los administradores de RES crear y mantener los sistemas de archivos para que los usuarios dispongan de los datos necesarios. RES es compatible con Amazon EFS y archivos Amazon FSx para NetApp ONTAP de NetApp, que los administradores pueden crear mediante RES o integrar los sistemas de archivos existentes. Para obtener más información sobre la administración y la creación de almacenamiento, consulte la documentación.
 
P: ¿Cómo puedo acceder a la documentación del producto?
 
Acceda a la documentación de RES.

P: ¿Cuánto cuesta RES?

RES está disponible sin gastos adicionales; los clientes pagan únicamente los recursos de AWS necesarios para ejecutar sus aplicaciones.

P: ¿En qué regiones está disponible RES?

RES está disponible en un subconjunto de regiones. Puede encontrar la lista en la documentación.

P: ¿Cómo se respalda RES?

Usted es responsable del mantenimiento necesario de las instancias EC2 y los programadores de lotes, de los parches de seguridad, de la administración de usuarios y del software que se ejecuta en las instancias de escritorio virtual. El respaldo de RES se limita a cuestiones relacionadas con la creación de los recursos. Si utiliza una AMI personalizada en lugar de una de las AMI predeterminadas de RES, tenga en cuenta que RES no admite ningún problema del sistema operativo relacionado con el uso de una AMI personalizada.

P: ¿Qué sistemas operativos son compatibles con RES?

RES es actualmente compatible con los sistemas operativos Windows y Linux. Para Linux, RES admite las siguientes distribuciones: Amazon Linux 2, CentOS 7, Red Hat Enterprise Linux 7, Red Hat Enterprise Linux 8 y Red Hat Enterprise Linux 9.

P: ¿Cómo puedo obtener licencias adicionales de Servicios de Escritorio remoto de Windows?

Las instancias Amazon EC2 ofrecen dos licencias de Servicios de Escritorio remoto (también conocidos como Servicios de Terminal) con una finalidad administrativa. Esta guía de inicio rápido lo ayudará a realizar el aprovisionamiento de estas licencias para sus administradores. También puede utilizar el Administrador de sesiones de AWS Systems Manager, que permite la conexión remota a las instancias EC2 sin servicios de escritorio remoto (RDP) y sin necesidad de licencias para estos servicios. Si necesita más licencias de Servicios de Escritorio remoto, las CAL de usuario de Escritorio remoto deben adquirirse de Microsoft o de un distribuidor de licencias de Microsoft. Las CAL de usuario de Escritorio remoto con Software Assurance activo tienen beneficios de movilidad para las licencias y se pueden incorporar a los entornos de propietario predeterminados (compartidos) de AWS. Para más información sobre traer licencias sin beneficios de Software Assurance o movilidad de licencias, consulte esta sección de preguntas frecuentes.

P: ¿Los escritorios virtuales de RES admiten instancias de spot?

No. Los escritorios virtuales de RES solo admiten instancias bajo demanda.
 
P: ¿Cómo se lanza RES?

RES se lanza mediante el repositorio de Amazon Web Services en GitHub. Allí encontrará opciones de instalación.

Obtenga más información sobre los servicios de AWS para HPC

Descubra todos los servicios de AWS que puede utilizar para crear una solución HPC en AWS.

Más información 
Regístrese para obtener una cuenta gratuita

Obtenga acceso instantáneo a la capa gratuita de AWS. 

Inscribirse 
Comience a usar HPC en AWS

Cree su primer clúster HPC en AWS.

Inicie sesión