Preguntas frecuentes sobre los aspectos generales de S3

P: ¿Qué es Amazon S3?

Amazon S3 es un servicio de almacenamiento de objetos creado para almacenar y recuperar cualquier volumen de datos desde cualquier ubicación. S3 es un servicio de almacenamiento sencillo que ofrece excelente durabilidad, disponibilidad, rendimiento, seguridad y escalabilidad prácticamente ilimitada a costos muy reducidos.

P: ¿Qué puedo hacer con Amazon S3?

Amazon S3 proporciona una sencilla interfaz de servicio web que puede utilizar para almacenar y recuperar el volumen de datos que desee, cuando lo necesite y desde cualquier ubicación. Mediante este servicio, puede crear de forma sencilla aplicaciones que utilicen almacenamiento nativo en la nube. Como Amazon S3 es un servicio con un alto nivel de escalabilidad y usted paga por lo que usa, podrá comenzar de a poco y ampliar su aplicación como desee, sin poner en riesgo ni el desempeño ni la fiabilidad.

Amazon S3 también se ha diseñado para ser muy flexible. Almacene el tipo y la cantidad de datos que desee; lea el mismo fragmento de datos un millón de veces o solo en caso de recuperación de desastres de emergencia; cree una aplicación FTP sencilla o una aplicación web sofisticada como el sitio web de venta al por menor Amazon.com. Amazon S3 le permite enfocarse en innovar, en lugar de invertir tiempo en averiguar cómo almacenar sus datos.

P: ¿Cómo puedo comenzar a utilizar Amazon S3?

Para registrarse en Amazon S3, visite la consola de S3. Para obtener acceso a este servicio, debe disponer de una cuenta de Amazon Web Services. Si aún no tiene una cuenta, se le pedirá que cree una cuando comience el proceso de registro de Amazon S3. Después del registro, consulte la documentación de Amazon S3, examine los materiales de introducción a S3 e inspeccione los recursos adicionales del centro de recursos para empezar a usar Amazon S3.

P: ¿Qué es lo que sí puedo hacer con Amazon S3 y no con una solución en las instalaciones?

Amazon S3 le permite aprovechar los beneficios propios de Amazon de escala masiva sin una inversión inicial y sin poner en riesgo el rendimiento. Mediante el uso de Amazon S3, es sencillo y asequible garantizar que se puede acceder rápidamente a los datos y que siempre están disponibles y protegidos.

P: ¿Qué tipos de datos pueden almacenarse en Amazon S3?

Podrá almacenar prácticamente todo tipo de datos en cualquier formato. Consulte el acuerdo de licencia de Amazon Web Services para obtener más información.

P: ¿Qué volumen de datos puedo almacenar en Amazon S3?

El volumen total de datos y el número de objetos que puede almacenar en Amazon S3 son ilimitados. El tamaño de los objetos individuales de Amazon S3 puede variar entre un mínimo de 0 bytes y un máximo de 5 TB. El objeto más grande que se puede cargar en un solo PUT es de 5 GB. Para objetos con un tamaño superior a 100 MB, los clientes deben pensar en utilizar la capacidad de carga multiparte.

P: ¿Qué es un bucket de S3 de uso general?

Un bucket es un contenedor de objetos almacenados en Amazon S3 y puede almacenar cualquier cantidad de objetos en un bucket. Los buckets de uso general son el tipo de bucket de S3 original, y un único bucket de uso general puede contener objetos almacenados en todas las clases de almacenamiento, excepto en S3 Express One Zone. Se recomiendan para la mayoría de los casos de uso y patrones de acceso.

P: ¿Qué es un bucket de directorio de S3?

Un bucket es un contenedor de objetos almacenados en Amazon S3 y puede almacenar cualquier cantidad de objetos en un bucket. Los bucket de directorio de S3 solo permiten almacenar objetos en la clase de almacenamiento S3 Express One Zone, lo que proporciona un procesamiento de datos más rápido dentro de una única zona de disponibilidad. Se recomiendan para casos de uso de baja latencia. Cada bucket de directorio de S3 puede admitir cientos de miles de transacciones por segundo (TPS), independientemente de la cantidad de directorios del bucket.

P: ¿Cuál es la diferencia entre un bucket de uso general y un bucket de directorio?

Un bucket es un contenedor de objetos almacenados en Amazon S3 y puede almacenar cualquier cantidad de objetos en un bucket. Los buckets de uso general son el tipo de bucket de S3 original, y un único bucket de uso general puede contener objetos almacenados en todas las clases de almacenamiento, excepto en S3 Express One Zone. Se recomiendan para la mayoría de los casos de uso y patrones de acceso. Los bucket de directorio de S3 solo permiten almacenar objetos en la clase de almacenamiento S3 Express One Zone, lo que proporciona un procesamiento de datos más rápido dentro de una única zona de disponibilidad. Se recomiendan para casos de uso de baja latencia. Cada bucket de directorio de S3 puede admitir cientos de miles de transacciones por segundo (TPS), independientemente de la cantidad de directorios del bucket.

P: ¿Qué hace Amazon con los datos que guardo en Amazon S3?

Amazon almacena sus datos y realiza un seguimiento del uso asociado para calcular su factura. Amazon no obtendrá acceso a sus datos con ningún fin que no sea la oferta de Amazon S3, a excepción de cuando la ley así lo exija. Consulte el acuerdo de licencia de Amazon Web Services para obtener más información.

P: ¿Amazon almacena sus propios datos en Amazon S3?

Sí. Las organizaciones de Amazon utilizan Amazon S3 para diversos proyectos. Muchos de estos proyectos utilizan Amazon S3 como almacén de datos autorizado y confían en este servicio para operaciones de vital importancia para su negocio.

P: ¿De qué forma están organizados los datos en Amazon S3?

Amazon S3 es un sencillo almacenamiento de objetos basado en claves. Cuando almacena datos, asigna una clave de objeto única que puede utilizarse posteriormente para recuperar los datos. Las claves pueden ser cualquier cadena y pueden crearse de forma que imiten atributos jerárquicos. Opcionalmente, puede usar el etiquetado de objetos de S3 para organizar los datos en todos los prefijos o buckets de S3.

P: ¿Cómo interactúo con Amazon S3?

Amazon S3 ofrece una sencilla interfaz de servicios web REST basada en estándares que está diseñada para funcionar con cualquier conjunto de herramientas de desarrollo basado en Internet. Las operaciones se simplificaron de forma intencionada para facilitar la tarea de incorporar nuevos protocolos de distribución y capas funcionales.

P: ¿Qué nivel de fiabilidad ofrece Amazon S3?

Amazon S3 le concede acceso a la misma infraestructura de almacenamiento de datos económica, rápida y con alto nivel de escalabilidad y disponibilidad que utiliza Amazon para ejecutar su propia red global de sitios web. La clase de almacenamiento S3 Standard está diseñada para una disponibilidad del 99,99 %; las clases de almacenamiento S3 Standard-IA, S3 Intelligent-Tiering y S3 Glacier Instant Retrieval para una disponibilidad del 99,9 %; la clase de almacenamiento S3 One Zone-IA para una disponibilidad del 99,5 % y las clases S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive para una disponibilidad del 99,99 % y un acuerdo de nivel de servicio del 99,9 %. Todos estas clases de almacenamiento cuentan con el respaldo del Acuerdo de nivel de servicios de Amazon S3.

P: ¿Cómo se desempeñará Amazon S3 durante los picos de tráfico repentinos de mi aplicación?

Amazon S3 se ha diseñado desde un primer momento para administrar tráfico de cualquier aplicación de Internet. El sistema de precio de pago por uso y la capacidad ilimitada garantizan que los costos progresivos no cambiarán y que el servicio no se verá interrumpido. Las enormes posibilidades de escalabilidad de Amazon S3 le permiten dividir la carga de forma equitativa para que ninguna aplicación se vea afectada por los picos de tráfico.

P: ¿Amazon S3 ofrece un acuerdo de nivel de servicio (SLA)?

Sí. El acuerdo de nivel de servicio de Amazon S3 prevé un crédito de servicio si el porcentaje de tiempo de actividad mensual de un cliente es inferior a nuestro compromiso de servicio en cualquier ciclo de facturación.

P: ¿Cuál es el modelo de consistencia para Amazon S3?

Amazon S3 brinda automáticamente, al mismo costo, una sólida consistencia de lectura tras escritura, sin modificar el rendimiento o la disponibilidad y sin sacrificar el aislamiento regional de las aplicaciones.

Después de escribir correctamente en un objeto nuevo o sobrescribir en uno existente, cualquier solicitud de lectura posterior recibe inmediatamente la versión más reciente del objeto. S3 también ofrece una consistencia sólida para operaciones de listado de modo que, después de la escritura, puede realizar de inmediato una enumeración de los objetos de un bucket y todos los cambios se verán reflejados.

P: ¿Cuál es el beneficio de una sólida coherencia de lectura tras escritura?

Una sólida coherencia de lectura tras escritura es útil cuando necesita leer un objeto inmediatamente después de una escritura. Por ejemplo, si suele leer y enumerar objetos justo después de escribirlos. Las cargas de trabajo de computación de alto rendimiento también se benefician, ya que, cuando un objeto se sobrescribe y luego se lee muchas veces de forma simultánea, una sólida coherencia de lectura tras escritura garantiza que la última escritura pueda leerse en todas las lecturas. Estas aplicaciones se benefician de manera automática e inmediata de una sólida consistencia de lectura tras escritura. La sólida consistencia de S3 también reduce los costos, ya que elimina la necesidad de infraestructura adicional para brindar una consistencia sólida.  

Regiones de AWS

P: ¿Dónde se almacenan mis datos?

Cuando crea el bucket de Amazon S3, debe especificar una región de AWS. Para las clases de almacenamiento S3 Standard, S3 Standard-IA, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive, los objetos se almacenan automáticamente en varios dispositivos distribuidos en un mínimo de tres zonas de disponibilidad (AZ). Las AZ están físicamente separadas entre sí por una distancia significativa de muchos kilómetros, aunque todas están dentro de un rango de 100 km (60 millas) de separación. Los objetos almacenados en la clase de almacenamiento S3 One Zone-IA se almacenan de manera redundante en una única zona de disponibilidad en la región de AWS que usted seleccione. Para S3 en Outposts, sus datos se almacenan en su entorno de Outposts en las instalaciones, a menos que elija manualmente transferirlo a una región de AWS. Consulte la lista de servicios por región de AWS para obtener información sobre la disponibilidad del servicio de Amazon S3 por región de AWS.

P: ¿Qué es una región de AWS?

Una región de AWS es una ubicación física en todo el mundo donde AWS agrupa los centros de datos.  Cada grupo de centros de datos lógicos de una región se denomina zona de disponibilidad (AZ). Cada región de AWS consta de un mínimo de tres zonas de disponibilidad aisladas y físicamente separadas dentro de un área geográfica. A diferencia de otros proveedores de nube, que a menudo definen una región como un solo centro de datos, el diseño de varias zonas de disponibilidad de cada región de AWS ofrece ventajas para los clientes. Cada zona de disponibilidad tiene alimentación, refrigeración y seguridad física independientes y está conectada a través de redes redundantes de latencia ultrabaja. 

P: ¿Qué es una zona de disponibilidad (AZ) de AWS?

Una zona de disponibilidad (AZ) hace referencia a uno o más centros de datos discretos con alimentación, redes y conectividad redundantes en una región de AWS. Las zonas de disponibilidad permiten que los clientes operen bases de datos y aplicaciones de producción con un nivel de disponibilidad, tolerancia a errores y escalabilidad mayor que el que ofrecería un centro de datos único. Todas las zonas de disponibilidad de una región de AWS están interconectadas con redes de alto ancho de banda y baja latencia, a través de una fibra metropolitana exclusiva totalmente redundante que proporciona una red de alto rendimiento y baja latencia entre las zonas de disponibilidad.

Las clases de almacenamiento Amazon S3 Standard, S3 Standard-Infrequent Access,S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive replican datos en un mínimo de tres zonas de disponibilidad para brindar protección contra la pérdida de una zona entera. Esto se aplica igualmente en regiones en las que se encuentran disponibles públicamente menos de tres zonas de disponibilidad. Es posible acceder a los objetos que se almacenan en estos tipos de almacenamiento desde todas las zonas de disponibilidad de una región de AWS.

La clase de almacenamiento Amazon S3 One Zone-IA replica los datos dentro de una única zona de disponibilidad. Los datos almacenados en S3 One Zone-IA no son resistentes a la pérdida física de una zona de disponibilidad como consecuencia de catástrofes, como terremotos, incendios e inundaciones.

P: ¿Cómo debo decidir en qué región de AWS almacenar mis datos?

Debe tener en cuenta diversos factores en función de la aplicación. Por ejemplo, puede ser conveniente almacenar sus datos en una región que esté cerca de sus clientes, sus centros de datos o sus otros recursos de AWS para reducir las latencias de acceso a los datos. También puede ser conveniente almacenar sus datos en una región que sea más remota con respecto a otras operaciones para conseguir redundancia geográfica y capacidad de recuperación de desastres. También debe tener en cuenta regiones que le permitan afrontar requisitos legales y de normativa específicos, y reducir los costos de almacenamiento. Puede elegir una región de menor precio para reducir los costos. Si desea obtener más información acerca de los precios de S3, visite la página de precios de Amazon S3.

P: ¿En qué partes del mundo se encuentra disponible Amazon S3?

Amazon S3 se encuentra disponible en todas las regiones de AWS en el mundo y puede usarlo independientemente de cuál sea su ubicación. Simplemente tiene que decidir en qué región (o regiones) de AWS desea almacenar los datos de Amazon S3. Consulte la lista de servicios por región de AWS para obtener una lista de las regiones de AWS en las que S3 se encuentra actualmente disponible.

Facturación

P: ¿Cuánto cuesta Amazon S3?

Con Amazon S3 paga únicamente por lo que usa. No existe un cargo mínimo. Puede realizar una estimación de su factura mensual con la Calculadora de precios de AWS.

AWS cobra menos cuando nuestros costos son menores. Algunos precios varían en función de la región de Amazon S3. Los precios de facturación se basan en la ubicación de su bucket de S3. No existe ningún cargo por la transferencia de datos que se encuentran en una región de Amazon S3 a través de una solicitud COPY. Los datos transferidos entre las regiones de AWS a través de una solicitud COPY se cobran conforme a las tarifas especificadas en la página de precios de Amazon S3. No se aplica ningún cargo por transferencia de datos entre Amazon EC2 (o cualquier servicio de AWS) y Amazon S3 en la misma región. Por ejemplo, datos transferidos en la región Este de EE. UU. (Norte de Virginia). Sin embargo, los datos transferidos entre Amazon EC2 (o cualquier servicio de AWS) y Amazon S3 en todas las demás regiones se cobran según las tarifas especificadas en la página de precios de Amazon S3. Por ejemplo, los datos transferidos entre la región Este de EE. UU. (Norte de Virginia) de Amazon EC2 y la región Oeste de EE. UU. (Norte de California) de Amazon S3. Los costos de transferencia de datos se facturan al propietario del bucket de origen.

Para conocer los precios de S3 en Outposts, visite la página de precios de Outposts.

P: ¿Cómo se cobra y factura el uso de Amazon S3?

No se requieren cargos de configuración ni compromisos para comenzar a utilizar Amazon S3. A final de mes, se cobrará automáticamente el uso de ese mes. Puede ver los cargos del periodo de facturación actual en cualquier momento iniciando sesión en su cuenta de Amazon Web Services y seleccionando el panel de facturación asociado a su perfil de consola.

Gracias al nivel de uso gratuito de AWS*, puede comenzar a utilizar Amazon S3 de forma gratuita en todas las regiones, excepto en las regiones de AWS GovCloud. Cuando se registran, los clientes nuevos de AWS reciben 5 GB de almacenamiento de Amazon S3 Standard, 20 000 solicitudes GET, 2000 solicitudes PUT y 100 GB de transferencia de datos saliente (hacia Internet, otras regiones de AWS o Amazon CloudFront) al mes durante un año. El uso mensual no utilizado no se acumula para el siguiente mes.

Amazon S3 le cobra por los siguientes tipos de uso. Tenga en cuenta que los siguientes cálculos presuponen que no se está utilizando la capa gratuita de AWS.

Almacenamiento utilizado:

Los precios de almacenamiento de Amazon S3 se resumen en la página de precios de Amazon S3.

El volumen de almacenamiento facturado en un mes se corresponde con la media del almacenamiento utilizado durante todo el mes. Esto incluye todos los metadatos y datos de objeto almacenados en buckets que haya creado en su cuenta de AWS. Medimos su uso en “TimedStorage-ByteHrs”, y se suman a final de mes para generar sus cargos mensuales.

Ejemplo de almacenamiento:

Supongamos que almacena 100 GB (107 374 182 400 bytes) de datos en Amazon S3 Standard en su bucket durante 15 días en marzo y 100 TB (109 951 162 777 600 bytes) de datos en Amazon S3 Standard durante los últimos 16 días de marzo.

A finales de marzo habrá realizado el siguiente uso en bytes por hora: uso total de bytes por hora = [107 374 182 400 bytes x 15 días x (24 horas/día)] + [109 951 162 777 600 bytes x 16 días x (24 horas/día)] = 42 259 901 212 262 400 bytes por hora. Calcule las horas en función del número real de días en un mes determinado. Por ejemplo, en nuestro ejemplo utilizamos marzo que tiene 31 días o 744 horas.

Convirtamos esto a GB/mes: 42 259 901 212 262 400 bytes por hora/1 073 741 824 bytes por GB/744 horas al mes = 52 900 GB/mes

Este volumen de uso cruza dos capas de volumen diferentes. El precio mensual del almacenamiento se calcula a continuación suponiendo que los datos se almacenan en la región de EE.UU. Este (Norte de Virginia): capa de 50 TB: 51 200 GB x 0,023 USD = 1177,60 USD, capa de 50 TB a 450 TB: 1700 GB x 0,022 USD = 37,40 USD

Costo de almacenamiento total = 1177,60 USD + 37,40 USD = 1215,00 USD

Transferencia entrante de datos de red:

Los precios de la transferencia de datos entrantes de Amazon S3 se resumen en la página de precios de Amazon S3. Esto representa la cantidad de datos enviados a los buckets de Amazon S3. 

Transferencia saliente de datos de red:

Los precios de la transferencia de datos salientes de Amazon S3 se resumen en la página de precios de Amazon S3. Para Amazon S3, este cargo se aplica siempre que se leen datos de cualquiera de sus buckets desde una ubicación situada fuera de esa región de Amazon S3 concreta.

Los niveles de precios de la transferencia saliente de datos tienen en cuenta el total de transferencias salientes de datos de una determinada región a Internet para los servicios Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS y Amazon VPC. Estos niveles no se aplican a las transferencias salientes de datos de Amazon S3 de una región de AWS a otra.

Ejemplo de transferencia saliente de datos:
Supongamos que transfiere 1 TB de datos de Amazon S3 de la región Este de EE. UU. (Norte de Virginia) a Internet cada día durante un mes de 31 días. Supongamos que también transfiere 1 TB de datos de una instancia de Amazon EC2 de la misma región a Internet durante el mismo mes de 31 días.

El total de la transferencia de datos sería de 62 TB (31 TB de Amazon S3 y 31 TB de Amazon EC2). Esto equivale a 63 488 GB (62 TB * 1 024 GB/TB).

Este volumen de uso cruza tres capas de volumen diferentes. El cargo de transferencia de datos saliente mensual se calcula a continuación presuponiendo que se produce en la región de EE.UU. Este (Norte de Virginia):
Capa de 10 TB: 10 239 GB (10×1 024 GB/TB – 1 (gratis)) x 0,09 USD = 921,51 USD
Capa de 10 TB a 50 TB: 40 960 GB (40×1024) x 0,085 USD = 3 481,60 USD
Capa de 50 TB a 150 TB: 12 288 GB (resto) x 0,070 USD = 860,16 USD

Cargo de transferencia de datos saliente total = 921,51 USD + 3 481,60 USD + 860,16 USD = 5 263,27 USD

Solicitudes de datos:

Los precios de las solicitudes de Amazon S3 se resumen en la página de precios de Amazon S3.

Ejemplo de solicitud:
Supongamos que transfiere 10 000 archivos a Amazon S3 y 20 000 archivos desde Amazon S3 cada día durante el mes de marzo. Luego, elimina 5000 archivos el 31 de marzo.
Total de solicitudes PUT = 10 000 solicitudes x 31 días = 310 000 solicitudes
Total de solicitudes GET = 20 000 solicitudes x 31 días = 620 000 solicitudes
Total de solicitudes DELETE = 5000×1 día = 5000 solicitudes

Suponiendo que su bucket se encuentra en la región de EE.UU. Este (Norte de Virginia), los cargos de solicitud se calculan de la siguiente forma:
310 000 solicitudes PUT: 310 000 solicitudes x 0,005 USD/1000 = 1,55 USD
620 000 solicitudes GET: 620 000 solicitudes x 0,004 USD/10 000 = 0,25 USD
5000 solicitudes DELETE = 5000 solicitudes x 0,00 USD (gratis) = 0,00 USD

Recuperación de datos:

Los precios de recuperación de datos de Amazon S3 se aplican a las clases de almacenamiento S3 Standard-Infrequent Access (S3 Standard-IA) y S3 One Zone-IA se resumen en la página de precios de Amazon S3.

Ejemplo de recuperación de datos:
Supongamos que en un mes recupera 300 GB de S3 Standard-IA, de los cuales 100 GB se envían a Internet, 100 GB a EC2 en la misma región de AWS y 100 GB a Amazon CloudFront en la misma región de AWS.

Los cargos de recuperación de datos al mes se calcularían de este modo: 300 GB x 0,01 USD por GB = 3,00 USD. Tenga en cuenta que también debería abonar los cargos por transferencia de datos de red para los datos enviados a Internet.

* * El uso del nivel gratuito se calcula cada mes en todas las regiones, excepto en la región de AWS GovCloud, y se aplica a su factura de manera automática; no se acumulará el uso mensual no consumido. Se aplican restricciones. Consulte las condiciones de la oferta para obtener más información.

P: ¿Por qué varían los precios en función de la región de Amazon S3 que elija?

AWS cobra menos cuando nuestros costos son menores. Por ejemplo, nuestros costos son más bajos en la región Este de EE. UU. (Norte de Virginia) que en la región Oeste de EE. UU. (Norte de California).

P: ¿Cómo se cobra el uso del control de versiones?

A toda versión de un objeto almacenado o solicitado de Amazon S3 se le aplican las tarifas normales. Por ejemplo, observemos el siguiente caso para ilustrar los costos de almacenamiento cuando se utiliza el control de versiones (supongamos que el mes actual tiene 31 días):

1) Día 1 del mes: realiza una operación PUT de 4 GB (4 294 967 296 bytes) en su bucket.
2) Día 16 del mes: realiza una operación PUT de 5 GB (5 368 709 120 bytes) en el mismo bucket de datos utilizando la misma clave que la operación PUT original del día 1.

Al analizar los costos de almacenamiento de las operaciones anteriores, debe tener en cuenta que el objeto de 4 GB del día 1 no se elimina del bucket cuando se escribe el objeto de 5 GB el día 15. En su lugar, el objeto de 4 GB se conserva como una versión más antigua, y el objeto de 5 GB pasa a ser la versión más recientemente escrita dentro del objeto que se encuentra en su bucket. A finales de mes:

Uso total de byte-hora
[4 294 967 296 bytes x 31 días x (24 horas/día)] + [5 368 709 120 bytes x 16 días x (24 horas/día)] = 5 257 039 970 304 byte-horas.

Conversión a GB/mes totales
5 257 039 970 304 bytes por hora x (1 GB/1 073 741 824 bytes) x (1 mes/744 horas) = 6,581 GB/mes

El costo se calcula en función de las tasas vigentes para su región que aparecen en la página de precios de Amazon S3.

P: ¿Cómo se cobra el acceso a Amazon S3 a través de la Consola de administración de AWS?

Al obtener acceso al servicio a través de la Consola de administración de AWS se aplica la estructura de precios normal de Amazon S3. Para proporcionar una experiencia optimizada, la Consola de administración de AWS puede ejecutar las solicitudes de forma proactiva. Además, algunas operaciones interactivas derivan en más de una solicitud al servicio.

P: ¿Cómo se cobra el acceso a buckets de Amazon S3 desde otra cuenta de AWS?

Se aplica el precio normal de Amazon S3 cuando se accede a su almacenamiento de información desde otra cuenta de AWS. Opcionalmente, puede optar por configurar su bucket como pago por solicitante, en cuyo caso el solicitante pagará el costo de las solicitudes y descargas de sus datos de Amazon S3.

Puede encontrar más información sobre las opciones de configuración del bucket de pago por solicitante en la documentación de Amazon S3.

P: ¿Los precios incluyen impuestos?

Si no se especifica lo contrario, nuestros precios no incluyen los impuestos ni gravámenes correspondientes, como el IVA y cualquier otro impuesto sobre las ventas. En el caso de los clientes con una dirección de facturación de Japón, el uso de los servicios de AWS está sujeto al impuesto de consumo nipón.

Más información sobre impuestos en los servicios de AWS »

Amazon S3 e IPv6

P: ¿Qué es IPv6?

Cada servidor y dispositivo conectado a Internet debe tener una dirección única. El protocolo de Internet versión 4 (IPv4) era el esquema de direccionamiento de 32 bits original. Sin embargo, el constante crecimiento de Internet significa que con el tiempo se utilizarán todas las direcciones IPv4. El protocolo de Internet versión 6 (IPv6) es un mecanismo de direccionamiento diseñado para superar las limitaciones de direcciones globales de IPv4.

P: ¿Qué puedo hacer con IPv6?

Gracias a la compatibilidad de Amazon S3 con IPv6, las aplicaciones pueden conectarse a Amazon S3 sin necesidad de ningún software o sistema de traducción de IPv6 a IPv4. Puede satisfacer los requisitos de conformidad, integrarse con aplicaciones locales existentes basadas en IPv6 de forma más sencilla y eliminar la necesidad de costoso equipo de red que se ocupe de la traducción de direcciones. Ahora también puede utilizar las características de filtrado de dirección de origen existentes de las políticas de IAM y políticas de bucket con direcciones IPv6, lo que le proporciona más opciones a la hora de proteger las aplicaciones que interactúan con Amazon S3.

P: ¿Cómo puedo comenzar a usar IPv6 en Amazon S3?

Puede comenzar apuntando su aplicación a un punto de conexión de “doble pila” de Amazon S3 compatible con IPv4 e IPv6. En la mayoría de los casos, no será necesario hacer ninguna configuración adicional para el acceso a través de IPv6, ya que la mayoría de los clientes de red prefieren las direcciones IPv6 por defecto. Las aplicaciones afectadas por el uso de IPv6 pueden pasarse de nuevo a puntos de conexión estándar de solo IPv4 en cualquier momento. IPv6 con Amazon S3 es compatible en todas las regiones comerciales de AWS, incluidas las regiones AWS GovCloud (EE. UU.), la región de Amazon Web Services China (Pekín), operada por Sinnet, y la región de Amazon Web Services China (Ningxia), operada por NWCD. 

P: ¿Debería esperar un cambio en el rendimiento de Amazon S3 al utilizar IPv6?

No, el rendimiento que observe será el mismo tanto si utiliza IPv4 como IPv6 con Amazon S3.

Notificaciones de eventos de S3

P: ¿Qué son las notificaciones de eventos de Amazon S3?

Puede usar la característica de notificaciones de eventos de Amazon S3 para recibir notificaciones cuando sucedan determinados eventos en su bucket de S3, como eventos de PUT, POST, COPY y DELETE. Puede publicar notificaciones en Amazon EventBridgeAmazon SNS, Amazon SQS o directamente en AWS Lambda.

P: ¿Qué puedo hacer con las notificaciones de eventos de Amazon S3?

Las notificaciones de eventos de Amazon S3 le permiten ejecutar flujos de trabajo, enviar alertas o realizar otras acciones en respuesta a los cambios que se produzcan en los objetos almacenados en S3. Puede utilizar las notificaciones de eventos de S3 para configurar desencadenadores que realicen acciones, como la transcodificación de archivos multimedia cuando se carguen, el procesamiento de archivos de datos cuando estén disponibles y la sincronización de objetos de S3 con otros almacenes de datos. También puede configurar notificaciones de eventos a partir de prefijos y sufijos del nombre del objeto. Por ejemplo, puede elegir recibir notificaciones de nombres de objetos que empiecen por “images/”.

P: ¿Qué se incluye en las notificaciones de eventos de Amazon S3?

Para obtener una descripción detallada de la información que se incluye en los mensajes de notificación de eventos de Amazon S3, consulte la documentación sobre la configuración de notificaciones de eventos de Amazon S3

P: ¿Cómo se configuran las notificaciones de eventos de Amazon S3?

Para obtener una descripción detallada sobre cómo configurar las notificaciones de eventos, consulte la documentación sobre la configuración de notificaciones de eventos de Amazon S3. Puede obtener más información sobre los servicios de mensajería de AWS en la documentación de Amazon SNS y en la documentación de Amazon SQS.

P: ¿Cuánto cuesta utilizar las notificaciones de eventos de Amazon S3?

No se aplica ningún cargo adicional por utilizar las notificaciones de eventos de Amazon S3. Solo tiene que pagar por utilizar Amazon SNS o Amazon SQS para la entrega de las notificaciones de eventos o por el costo que supone la ejecución de la función de AWS Lambda. Visite las páginas de precios de Amazon SNS, Amazon SQS o AWS Lambda para consultar la información sobre los precios de estos servicios.

Amazon S3 Transfer Acceleration

P: ¿Qué es la Aceleración de transferencias de S3?

La Aceleración de transferencias de S3 crea transferencias rápidas, sencillas y seguras de archivos en largas distancias entre su cliente y su bucket de Amazon S3. La Aceleración de transferencias de S3 aprovecha las ubicaciones periféricas de AWS de Amazon CloudFront distribuidas por todo el mundo. A medida que los datos llegan a una ubicación periférica de AWS, se redirigen al bucket de Amazon S3 a través de una ruta de red optimizada.

P: ¿Cómo puedo comenzar a usar la Aceleración de transferencias de S3?

Para empezar a usar la Aceleración de transferencias de S3, active la Aceleración de transferencias de S3 en un bucket de S3 con la consola de Amazon S3, la API de Amazon S3 o AWS CLI. Una vez activada la Aceleración de transferencias de S3, puede dirigir las solicitudes PUT y GET de Amazon S3 al nombre de dominio del punto de conexión s3-accelerate. La aplicación de transferencia de datos debe usar uno de los siguientes dos tipos de extremos para acceder al bucket y transferir los datos con mayor rapidez: .s3-accelerate.amazonaws.com r .s3-accelerate.dualstack.amazonaws.com para el punto de enlace “dual-stack”. Si desea utilizar la transferencia de datos estándar, puede continuar utilizando los puntos de enlace habituales.

Existen determinadas restricciones en relación con los buckets que admitirán la Aceleración de transferencias de S3. Para obtener más información, consulte la documentación de Amazon S3.

P: ¿Cuál es la velocidad de la Aceleración de transferencias de S3?

S3 Transfer Acceleration lo ayuda a utilizar la totalidad de su ancho de banda, lo que reduce los efectos de la distancia en el rendimiento, y está diseñado para garantizar una transferencia de datos rápida y uniforme a Amazon S3 independientemente de dónde se encuentre su cliente. El grado de aceleración depende principalmente del ancho de banda del que disponga, de la distancia entre el origen y el destino, y de las tasas de pérdida de paquetes en la ruta de red. Por lo general, observará mayor aceleración cuando el origen se encuentre a mayor distancia del destino, cuando se disponga de más ancho de banda o cuando el tamaño del objeto sea mayor.

Un cliente midió una reducción del 50 % en el tiempo medio que tardaba en capturar archivos de 300 MB de una base de usuarios global repartidos por Estados Unidos, Europa y partes de Asia a un bucket en la región Asia-Pacífico (Sídney). Otro cliente observó casos en los que el rendimiento se incrementó más del 500 % cuando usuarios del Sureste de Asia y de Australia cargaban archivos de 250 MB (en partes de 50 MB) en un bucket de S3 en la región Este de EE. UU. (Norte de Virginia).

Acceda a la herramienta de comparación de velocidad de la Aceleración de transferencias de S3 para obtener una vista previa de la mejora en el rendimiento que podría obtener desde su ubicación.

P: ¿Quién debería utilizar la Aceleración de transferencias de S3?

S3 Transfer Acceleration está diseñado para optimizar las velocidades de transferencia desde cualquier parte del mundo a buckets de S3. Si desea cargar datos a un bucket centralizado desde ubicaciones dispersas geográficamente o si transfiere GB o TB de datos con frecuencia entre continentes, podrá reducir los tiempos de transferencias en horas o incluso días con la Aceleración de transferencias de S3.

P: ¿Cuán segura es la Aceleración de transferencias de S3?

La Aceleración de transferencias de S3 proporciona el mismo nivel de seguridad que las transferencias convencionales a Amazon S3. Además, admite todas las características de seguridad de Amazon S3, como la restricción del acceso a partir de la dirección IP de un cliente. La Aceleración de transferencias de S3 se comunica con los clientes a través de un TCP estándar y no es necesario realizar cambios en el firewall. Nunca se guardan datos en las ubicaciones periféricas de AWS.

P: ¿Qué sucede si la Aceleración de transferencias de S3 no es más rápida que una transferencia convencional de Amazon S3?

Cada vez que utiliza S3 Transfer Acceleration para cargar un objeto, comprobaremos si es probable que sea más rápido que una transferencia convencional de Amazon S3. Si determinamos que no es probable que S3 Transfer Acceleration sea más rápido que una transferencia convencional de Amazon S3 para el mismo objeto y la misma región de AWS de destino, no le cobraremos el uso de S3 Transfer Acceleration para esa transferencia y podremos omitir el sistema S3 Transfer Acceleration para dicha carga.

P: ¿Puedo utilizar S3 Transfer Acceleration para cargas multiparte?

Sí, S3 Transfer Acceleration admite todas las características a nivel de bucket, incluidas las cargas multiparte.

P: ¿Qué debería elegir, S3 Transfer Acceleration o PUT/POST de Amazon CloudFront?

S3 Transfer Acceleration optimiza el protocolo TCP y agrega inteligencia adicional entre el cliente y el bucket de S3, por lo que resulta una mejor opción si se desea un nivel de procesamiento más elevado. Si tiene objetos de tamaño inferior a 1 GB o si el conjunto de datos tiene un tamaño inferior a 1 GB, debería considerar el uso de los comandos PUT/POST de Amazon CloudFront para lograr un rendimiento óptimo.

P: ¿Cómo puedo saber si debo elegir la Aceleración de transferencias de S3 o AWS Snow Family (Snowball, Snowball Edge y Snowmobile)?

AWS Snow Family es ideal para clientes que desean trasladar grandes volúmenes de datos de una sola vez. Normalmente, el proceso de AWS Snowball tarda en completarse entre 5 y 7 días. Por lo general, S3 Transfer Acceleration puede transferir hasta 75 TB al mismo tiempo, si se dispone de la capacidad total de una línea de 1 Gbps. Por ello, si se tardará más de una semana en realizar la transferencia por Internet, o se van a realizar tareas de transferencia periódicas y se cuenta con más de 25 Mbps de ancho de banda disponible, S3 Transfer Acceleration es una buena opción. Otra opción consiste en usar ambos: realizar las tareas pesadas iniciales con AWS Snowball (o varios AWS Snowball) y, a continuación, transferir los cambios progresivos constantes con S3 Transfer Acceleration.

P: ¿La Aceleración de transferencias de S3 puede complementar a AWS Direct Connect?

AWS Direct Connect es una buena opción para clientes que tienen un requisito de red privada o tienen acceso a intercambios de AWS Direct Connect. La Aceleración de transferencias de S3 es más adecuada para enviar datos de ubicaciones de clientes distribuidas a través del Internet público, o en el caso de que las variaciones en el estado de la red resulten en un rendimiento insuficiente. Algunos clientes de AWS Direct Connect utilizan la Aceleración de transferencias de S3 para ayudar con las transferencias de oficinas remotas si estas disponen de conexiones a Internet de rendimiento insuficiente.

P: ¿La Aceleración de transferencias de S3 puede complementar a AWS Storage Gateway o a una puerta de enlace de terceros?

Si configura el destino del bucket en su puerta de enlace de terceros para que use un dominio del punto de conexión de la Aceleración de transferencias de S3, podrá obtener beneficios.

Visite la sección Archivos de las preguntas frecuentes sobre Storage Gateway para obtener más información sobre la implementación de AWS.

P: ¿S3 Transfer Acceleration puede complementar el software integrado de terceros?

Sí. Los paquetes de software que se conectan directamente con Amazon S3 pueden aprovechar S3 Transfer Acceleration cuando envían tareas a Amazon S3.

Obtenga más información sobre soluciones de socios de almacenamiento »

P: ¿La Aceleración de transferencias de S3 cumple los requisitos de HIPAA?

Sí, AWS amplió su programa de conformidad con HIPAA para incluir la Aceleración de transferencias de S3 como un servicio compatible con HIPAA. Si tiene un Contrato de asociación empresarial (BAA) con AWS, puede utilizar la Aceleración de transferencias de S3 para realizar transferencias de archivos seguras, rápidas y simples, entre ellas, de información de salud protegida (PHI) entre distancias importantes entre su cliente y su bucket de Amazon S3.

Seguridad

P: ¿Cuán seguros están mis datos en Amazon S3?     

Amazon S3 es seguro de forma predeterminada. Al momento de su creación, solo el usuario tiene acceso a los buckets de Amazon S3 que crea y tiene control total sobre quién puede acceder a los datos. Amazon S3 admite la autenticación de usuario para controlar el acceso a los datos. Puede usar mecanismos de control de acceso, como las políticas de bucket, para conceder permisos de manera selectiva a los usuarios y grupos de usuarios. La consola de Amazon S3 destaca sus buckets con acceso público, indica el origen de accesibilidad pública y también le advierte si los cambios en sus políticas de bucket o ACL de bucket harían que su bucket sea accesible públicamente. Debe habilitar el Bloqueo del acceso público de Amazon S3 para todas las cuentas y buckets a los que no quiere que se pueda acceder públicamente. Todos los buckets nuevos tienen activado el Bloqueo de acceso público de forma predeterminada.

Puede cargar y descargar de forma segura los datos en Amazon S3 a partir de puntos de conexión SSL con el protocolo HTTPS. Amazon S3 cifra automáticamente todas las cargas de objetos a su bucket (a partir del 5 de enero de 2023). Como alternativa, puede usar sus propias bibliotecas de cifrado para cifrar datos antes de almacenarlos en Amazon S3.

Para obtener más información sobre la seguridad en AWS, consulte la página de seguridad de AWS. Para obtener información sobre la seguridad de S3, visite la página de seguridad de S3 y la guía de prácticas de seguridad recomendadas de S3.

P: ¿Cómo puedo controlar el acceso a los datos que tengo almacenados en Amazon S3?

Los clientes pueden utilizar varios mecanismos para controlar el acceso a los recursos de Amazon S3, entre los que se incluyen las políticas de AWS Identity and Access Management (IAM), las políticas de bucket, las políticas de puntos de acceso, las listas de control de acceso (ACL), la autenticación con cadena de consulta, las políticas de punto de conexión de Amazon Virtual Private Cloud (Amazon VPC), las políticas de control de servicios (SCP) en AWS Organizations y Amazon S3 Block Public Access.

IAM
IAM permite a las organizaciones con varios empleados crear y administrar diversos usuarios bajo una única cuenta de AWS. Gracias a las políticas de IAM, los clientes pueden conceder a los usuarios de IAM un control detallado de los objetos o buckets de Amazon S3 al mismo tiempo que conservan el control pleno de todas las acciones de los usuarios.

Políticas de bucket y de puntos de acceso
Mediante las políticas de bucket y las políticas de puntos de acceso, los clientes pueden definir reglas que se aplican ampliamente a todas las solicitudes que se realizan a sus recursos de Amazon S3, como conceder privilegios de escritura a un subconjunto de recursos de Amazon S3. Los clientes también pueden restringir el acceso basándose en un aspecto de la solicitud, como por ejemplo la referencia HTTP y la dirección IP. 

ACL
Amazon S3 admite el método de control de acceso original de S3, las listas de control de acceso (ACL). Con las ACL, los clientes pueden conceder permisos específicos (por ejemplo, READ, WRITE o FULL_CONTROL) a usuarios concretos para un objeto o bucket en particular. Para los clientes que prefieren usar políticas para el control de acceso de forma exclusiva, Amazon S3 ofrece la función de propiedad de objeto de S3 para desactivar las ACL. Puede usar S3 Inventory para revisar el uso de las ACL en sus buckets antes de habilitar S3 Object Ownership al migrar a políticas de buckets basadas en IAM.

Autenticación con cadena de consulta
Mediante la autenticación con cadena de consulta, los clientes podrán crear una URL para un objeto de Amazon S3 que solo sea válida durante un tiempo limitado. Para obtener más información sobre las distintas políticas de control de acceso disponibles en Amazon S3, consulte la
documentación de control de acceso.

Amazon VPC
Cuando los clientes crean un punto de conexión de Amazon VPC, pueden adjuntarle una política de punto de conexión que controle el acceso a los recursos de Amazon S3 a los que se conectan. Los clientes también pueden usar políticas de bucket de Amazon S3 para controlar el acceso a los buckets desde puntos de conexión o VPC específicos.

Políticas de control de servicios
Las políticas de control de servicios (SCP) son un tipo de política de AWS Organizations que los clientes pueden utilizar para administrar los permisos de su organización. Las SCP ofrecen control central sobre la máxima cantidad de permisos disponibles para todas las cuentas de una organización. Con las SCP, los clientes pueden asegurarse de que las cuentas se mantengan dentro de los lineamientos de control de acceso de la organización.

S3 Block Public Access
El
Bloqueo del acceso público de Amazon S3 proporciona configuraciones para puntos de acceso, buckets y cuentas, para ayudar a los clientes a administrar el acceso público a los recursos de Amazon S3. Con el Bloqueo del acceso público de S3, los administradores de cuentas y propietarios de buckets pueden configurar fácilmente controles centralizados para limitar el acceso público a los recursos de Amazon S3, los cuales son obligatorios sin importar cómo se crearon los recursos. Todos los buckets nuevos tienen activado Bloquear acceso público de forma predeterminada como práctica recomendada de seguridad.

Obtenga más información sobre políticas y permisos en la documentación de AWS IAM.

P: ¿Amazon S3 admite la auditoría de acceso de datos?

Sí, los clientes pueden configurar de manera opcional un bucket de Amazon S3 para crear registros de acceso para todas las solicitudes creadas y destinadas a este. Opcionalmente, los clientes que necesiten obtener información sobre identidades de usuarios/IAM en sus registros pueden configurar AWS CloudTrail Data Events.

Estos registros de acceso pueden utilizarse con fines de auditoría y contienen detalles sobre la solicitud, como el tipo de solicitud, los recursos especificados en esta y la hora y fecha en que se procesó.

P: ¿Qué opciones tengo para cifrar los datos almacenados en Amazon S3?

Amazon S3 cifra todas las cargas de datos nuevas a cualquier bucket. Amazon S3 aplica el cifrado del lado del servidor administrado por S3 (SSE-S3) como nivel básico de cifrado para todas las cargas de objetos (a partir del 5 de enero de 2023). SSE-S3 ofrece una solución totalmente administrada en la que Amazon se encarga de la gestión y la protección de las claves mediante varias capas de seguridad. Si prefiere que Amazon administre sus claves, debería seguir utilizando SSE-S3. Además, puede optar por cifrar los datos mediante SSE-C, SSE-KMS, DSSE-KMS o una biblioteca del cliente como el Cliente de cifrado de Amazon S3. Cada opción le permite almacenar datos confidenciales cifrados en reposo en Amazon S3.

SSE-C permite a Amazon S3 realizar el cifrado y descifrado de objetos, mientras que usted retiene el control de las claves de cifrado. Con SSE-C, no necesita implementar ni utilizar una biblioteca del lado del cliente para realizar el cifrado y el descifrado de los objetos que almacene en Amazon S3, pero sí tiene que administrar las claves que envíe a Amazon S3 para cifrar y descifrar los objetos. Utilice SSE-C si desea conservar sus propias claves de cifrado y no desea implementar ni aprovechar una biblioteca de cifrado del lado del cliente.

SSE-KMS permite que AWS Key Management Service (AWS KMS) administre las claves de cifrado. El uso de AWS KMS para administrar sus claves proporciona varios beneficios adicionales. Con AWS KMS, existen permisos independientes para el uso de la clave KMS, lo que proporciona una capa adicional de control y protección contra el acceso no autorizado a sus objetos almacenados en Amazon S3. AWS KMS proporciona un registro de auditoría para que pueda ver quién utilizó su clave para acceder a qué objeto y cuándo, así como ver los intentos fallidos de acceso a los datos de los usuarios sin permiso para descifrar los datos. Además, AWS KMS proporciona controles de seguridad adicionales para respaldar los esfuerzos de los clientes por cumplir con los requisitos industriales de PCI-DSS, HIPAA/HITECH y FedRAMP.

DSSE-KMS simplifica el proceso de aplicar dos capas de cifrado a los datos, sin tener que invertir en la infraestructura necesaria para el cifrado del cliente. Cada capa de cifrado utiliza una implementación diferente del algoritmo estándar de cifrado avanzado de 256 bits con modo contador de Galois (AES-GCM) y se examina y acepta su uso en cargas de trabajo secretas. DSSE-KMS usa AWS KMS para generar claves de datos y permite que AWS KMS administre sus claves de cifrado. Con AWS KMS, existen permisos independientes para el uso de la clave KMS, lo que proporciona una capa adicional de control y protección contra el acceso no autorizado a sus objetos almacenados en Amazon S3. AWS KMS proporciona un registro de auditoría para que pueda ver quién utilizó su clave para acceder a qué objeto y cuándo, así como ver los intentos fallidos de acceso a los datos de los usuarios sin permiso para descifrar los datos. Además, AWS KMS proporciona controles de seguridad adicionales para respaldar los esfuerzos de los clientes por cumplir con los requisitos industriales de PCI-DSS, HIPAA/HITECH y FedRAMP.

Al utilizar una biblioteca de cliente de cifrado, usted retiene el control de las claves y completa el cifrado y descifrado de los objetos del lado del cliente por medio de una biblioteca de cifrado de su elección. Algunos clientes prefieren un control total de extremo a extremo del cifrado y el descifrado de los objetos; de ese modo, solo los objetos cifrados se transmiten por Internet a Amazon S3. Utilice una biblioteca del lado del cliente si quiere mantener el control de las claves de cifrado, si puede implementar o utilizar una biblioteca de cifrado del cliente y si necesita cifrar los objetos antes de enviarlos a Amazon S3 para su almacenamiento.

Para obtener más información sobre cómo usar SSE-KMS, SSE-C o SSE-S3 de Amazon S3, consulte la documentación sobre cómo proteger los datos con el cifrado.

P: ¿Cumplo las normativas de privacidad de datos europeas cuando utilizo Amazon S3?

Los clientes pueden elegir almacenar todos los datos en Europa utilizando la región Europa (Fráncfort), Europa (Irlanda), Europa (París), Europa (Estocolmo), Europa (Milán), Europa (España), Europa (Londres) o Europa (Zúrich). También puede utilizar Amazon S3 en Outposts para mantener todos sus datos en las instalaciones en AWS Outposts, y puede elegir transferir los datos entre AWS Outposts o a una región de AWS. Es responsabilidad suya asegurarse de que cumple con las leyes de privacidad europeas. Consulte el centro sobre el Reglamento General de Protección de Datos (RGPD) de AWS y el Centro de privacidad de datos de AWS para obtener más información. Si tiene requisitos de ubicación más específicos u otras normativas de privacidad de datos que le exigen conservar sus datos en un lugar donde no haya región de AWS, puede usar S3 en Outposts.

P: ¿Qué es un punto de conexión de Amazon VPC para Amazon S3?

Un punto de conexión de Amazon VPC para Amazon S3 es una entidad lógica dentro de una VPC que permite la conectividad a S3 a través de la red global de AWS. Existen dos tipos de puntos de conexión de VPC para S3: de puerta de enlace y de interfaz. Los puntos de conexión de puerta de enlace son una puerta de enlace que se especifica en la tabla de enrutamiento para acceder a S3 desde su VPC a través de la red de AWS. Los puntos de conexión de interfaz extienden la funcionalidad de los puntos de conexión de puertas de enlace a través de IP privadas para redirigir solicitudes a S3 desde su VPC, el sistema en las instalaciones o una región de AWS diferente. Para obtener más información, visite la documentación de AWS PrivateLink para Amazon S3.

P: ¿Puedo permitir que un punto de conexión de Amazon VPC específico tenga acceso a mi bucket de Amazon S3?

Puede limitar el acceso a su bucket desde un punto de enlace de la VPC de Amazon específico o un conjunto de puntos de enlace mediante las políticas de buckets de Amazon S3. Las políticas de buckets de S3 ahora admiten una condición, aws:sourceVpce, que puede usar para restringir el acceso. Para obtener más detalles y políticas de ejemplo, lea la documentación sobre los puntos de conexión de puertas de enlace para S3

P: ¿Qué es AWS PrivateLink para Amazon S3?

AWS PrivateLink para S3 brinda conectividad privada entre Amazon S3 y el sistema en las instalaciones. Puede aprovisionar su VPC con puntos de conexión de VPC de interfaz para S3 para conectar sus aplicaciones en las instalaciones directamente a S3 a través de AWS Direct Connect o AWS VPN. Ya no necesita usar IP públicas, cambiar las reglas de firewall ni configurar una puerta de enlace de Internet para acceder a S3 desde el sistema en las instalaciones. Para obtener más información, consulte la documentación de AWS PrivateLink para S3.

P: ¿Cómo puedo comenzar a utilizar los puntos de conexión de VPC de interfaz para S3?

Puede crear un punto de conexión de VPC de interfaz a través de la consola de administración de la VPC de AWS, la interfaz de la línea de comandos de AWS (AWS CLI), el AWS SDK o la API. Para obtener más información, consulte la documentación.

P: ¿Cuándo debo elegir puntos de conexión de VPC de puertas de enlace en lugar de puntos de conexión de VPC de interfaz basados en AWS PrivateLink?

AWS recomienda el uso de puntos de conexión de VPC de interfaz para acceder a S3 desde el sistema en las instalaciones o desde una VPC en otra región de AWS. Para recursos que acceden a S3 desde una VPC en la misma región de AWS que S3, se recomienda usar puntos de conexión de VPC de puerta de enlace, ya que estos no se facturan. Para obtener más información, consulte la documentación.

P: ¿Puedo usar puntos de enlace de interfaz y de gateway para S3 en la misma VPC?

Sí. Si ya tiene un punto de conexión de VPC de puerta de enlace existente, cree un punto de conexión de VPC de interfaz en su VPC y actualice las aplicaciones de cliente con los nombres específicos de los puntos de conexión de VPC. Por ejemplo, si el ID de punto de conexión de VPC para el punto de conexión de interfaz es vpce-0fe5b17a0707d6abc-29p5708s en la región us-east-1, el nombre de DNS específico del punto de conexión será vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce.amazonaws.com. En este caso, solo las solicitudes para los nombres específicos de los puntos de conexión de VPC se redirigirán a través de los puntos de conexión de VPC de interfaz a S3, mientras que todas las demás solicitudes continuarían redirigiéndose a través del punto de conexión de VPC de puerta de enlace. Para obtener más información, consulte la documentación.

P: ¿Qué es Amazon Macie y cómo puedo utilizarlo para proteger mis datos?

Amazon Macie es un servicio de seguridad con tecnología de inteligencia artificial que ayuda a evitar la pérdida de datos mediante la detección, la clasificación y la protección automáticas de la información confidencial almacenada en Amazon S3. Amazon Macie utiliza machine learning para reconocer datos confidenciales, como información de identificación personal (PII) o propiedad intelectual, asigna un valor empresarial y proporciona visibilidad de la ubicación donde se almacenan los datos y cómo se utilizan en su empresa. Amazon Macie monitorea la actividad de acceso a los datos constantemente en busca de anomalías y envía alertas cuando detecta un riesgo de acceso no autorizado o filtraciones de datos involuntarias.

Puede utilizar Amazon Macie para protegerse ante amenazas de seguridad gracias al monitoreo constante de los datos y las credenciales de cuenta. Amazon Macie ofrece una manera sencilla y automatizada de detectar y clasificar sus datos empresariales. Aporta controles mediante funciones de Lambda con plantillas para retirar el acceso o activar políticas de cambio de contraseña al descubrir comportamientos sospechosos o el acceso no autorizado a datos de entidades o aplicaciones de terceros. Cuando se generan alertas, puede utilizar Amazon Macie para responder a incidentes y utilizar Eventos de Amazon CloudWatch para tomar medidas de manera rápida y proteger sus datos. Para obtener más información, visite la documentación de Amazon Macie.

¿Qué es el Analizador de acceso de IAM para Amazon S3 y cómo funciona?

El Analizador de acceso para S3 es una característica que lo ayuda a simplificar la administración de permisos mientras establece, verifica y ajusta las políticas para sus puntos de acceso y buckets de S3. El Analizador de acceso para S3 supervisa sus políticas de acceso existentes para verificar que proporcionen solo el acceso necesario a sus recursos de S3. El Analizador de acceso para S3 evalúa las políticas de acceso del bucket y le permite detectar y modificar rápidamente los buckets que no requieren acceso.

El Analizador de acceso para S3 le avisa cuando tiene un bucket que está configurado para permitirle el acceso a cualquier persona en Internet o que se comparte con otras cuentas de AWS. Recibe conclusiones sobre la fuente y el nivel de acceso compartido o público. Por ejemplo, el analizador de acceso para S3 informará de manera proactiva si se brindó acceso no solicitado de lectura o escritura a través de una lista de control de acceso (ACL) o política de bucket. Con estas conclusiones, puede configurar o restaurar de manera inmediata la política de acceso deseado.

Cuando revisa los resultados que muestran el acceso potencialmente compartido a un bucket, puede bloquear el acceso público a un bucket con un solo clic en la consola de S3. También puede examinar a fondo las configuraciones de permisos de nivel de bucket para configurar niveles pormenorizados de acceso. Para fines de auditoría, puede descargar los hallazgos del analizador de acceso para S3 como un informe CSV. 

Además, la consola de S3 brinda advertencias de seguridad, informa errores y ofrece sugerencias del analizador de acceso de IAM a medida que se crean las políticas de S3. La consola ejecuta automáticamente más de 100 verificaciones de políticas para validar sus políticas. Estas verificaciones permiten ahorrar tiempo, funcionan como guía para resolver errores y ayudan a aplicar las prácticas recomendadas de seguridad.

Para obtener más información, consulte la documentación sobre el Analizador de acceso de IAM.

Concesiones de acceso de S3

P: ¿Qué son las concesiones de acceso de Amazon S3?

Las concesiones de acceso de Amazon S3 asignan identidades en directorios, como las entidades principales de Active Directory o AWS Identity and Access Management (IAM), a conjuntos de datos de S3. Esto lo ayuda a administrar los permisos de datos a escala al conceder automáticamente el acceso a S3 a los usuarios finales en función de su identidad corporativa. Además, las concesiones de acceso de S3 registran la identidad del usuario final y la aplicación utilizada para acceder a los datos de S3 en AWS CloudTrail. Esto ayuda a proporcionar un historial de auditoría detallado hasta la identidad del usuario final para todos los accesos a los datos de sus buckets de S3.

P: ¿Por qué debo usar las concesiones de acceso de S3?

Debe utilizar las concesiones de acceso de S3 si muchos usuarios y aplicaciones comparten y acceden a sus datos de S3, donde algunas de sus identidades se encuentran en su directorio corporativo como Okta o Entra ID, y necesita una forma escalable, simple y auditable de conceder acceso a estos conjuntos de datos de S3 a escala.

P: ¿Cómo puedo comenzar a usar las concesiones de acceso de S3?

Puede comenzar a utilizar las concesiones de acceso de S3 en cuatro pasos. En primer lugar, configure una instancia de concesiones de acceso de S3. En este paso, si quiere usar las concesiones de acceso de S3 con usuarios y grupos de su directorio corporativo, habilite AWS Identity Center y conecte las concesiones de acceso de S3 a su instancia de Identity Center. En segundo lugar, registre una ubicación con las concesiones de acceso de S3. Durante este proceso, se otorga a las concesiones de acceso de S3 un rol de IAM que permite crear credenciales de S3 temporales que los usuarios y las aplicaciones pueden utilizar para acceder a S3. En tercer lugar, defina las concesiones de permisos que especifican quién puede acceder a qué. Por último, en el momento del acceso, haga que la aplicación solicite una credencial temporal a las concesiones de acceso de S3 y utilice las credenciales proporcionadas por las concesiones de acceso para acceder a S3.

P: ¿Qué tipos de identidad admiten las concesiones de permisos de las concesiones de acceso de S3?

Las concesiones de acceso de S3 admiten dos tipos de identidades: las identidades de usuario empresarial o de grupo de AWS Identity Center y las entidades principales de AWS IAM, incluidos los usuarios y roles de IAM. Cuando utiliza las concesiones de acceso de S3 con AWS Identity Center, puede definir los permisos de datos en función de la pertenencia a grupos de directorios. AWS Identity Center es un servicio de AWS que se conecta a los proveedores de identidad más utilizados, incluidos Entra ID, Okta y Ping, entre otros. Además de admitir identidades de directorio a través de AWS Identity Center, las concesiones de acceso de S3 también admiten reglas de permisos para entidades principales de AWS IAM, incluidos los usuarios y roles de IAM. Esto es para casos de uso en los que se administra una federación de identidades personalizada no a través de AWS Identity Center, sino mediante una aserción de IAM y SAML (implementación de ejemplo), o se administran las identidades de las aplicaciones en función de las entidades principales de IAM y, aún así, desea usar las concesiones de acceso de S3 por su escalabilidad y auditabilidad.

P: ¿Cuáles son los diferentes niveles de acceso que ofrecen las concesiones de acceso de S3?

Las concesiones de acceso de S3 ofrecen tres niveles de acceso: LECTURA, ESCRITURA y LECTOESCRITURA. LECTURA le permite ver y recuperar objetos de S3. ESCRITURA le permite escribir y borrar desde S3. LECTOESCRITURA le permite usar LECTURA y ESCRITURA.

P: ¿Puedo personalizar mis niveles de acceso?

No. Solo puede usar los tres niveles de acceso predefinidos (LECTURA/ESCRITURA/LECTOESCRITURA) que ofrecen las concesiones de acceso de S3.

P: ¿Hay algún límite en las concesiones de acceso de S3?

Sí. Puede crear hasta 100 000 concesiones por instancia de concesiones de acceso de S3 y hasta 1000 ubicaciones por instancia de concesiones de acceso de S3.

P: ¿Hay algún impacto en el rendimiento del acceso a los datos cuando uso las concesiones de acceso de S3?

No. La latencia para obtener credenciales temporales de las concesiones de acceso de S3 es similar a la de obtener credenciales temporales de AWS STS en la actualidad. Una vez que haya obtenido las credenciales de las concesiones de acceso de S3, puede reutilizar las credenciales que no hayan vencido para solicitudes posteriores. Para estas solicitudes posteriores, no hay latencia adicional para las solicitudes autenticadas mediante las credenciales de las concesiones de acceso de S3 en comparación con otros métodos.

P: ¿Qué otros servicios de AWS se requieren para usar las concesiones de acceso de S3?

Si tiene previsto utilizar las concesiones de acceso de S3 para las identidades de directorio, primero tendrá que configurar AWS IAM Identity Center. AWS IAM Identity Center permite crear o conectar las identidades de los miembros del personal, independientemente de que las identidades se creen y almacenen en Identity Center o en un proveedor de identidades externo. Consulte la documentación de Identity Center para conocer el proceso de configuración. Una vez configurada la instancia de Identity Center, puede conectarla a las concesiones de acceso de S3. Posteriormente, las instancias de acceso de S3 dependen de Identity Center para recuperar los atributos de los usuarios, como la pertenencia a grupos, para evaluar las solicitudes y tomar decisiones de autorización.

P: ¿Las concesiones de acceso de S3 requieren modificaciones por parte del cliente?

Sí. Si bien actualmente inicializa su cliente de S3 con credenciales de IAM asociadas a su aplicación (por ejemplo, credenciales de rol de IAM para EC2 o las funciones de IAM en cualquier lugar, o mediante credenciales de usuario de IAM a largo plazo), la aplicación necesitará obtener primero las credenciales de las concesiones de acceso de S3 antes de inicializar el cliente de S3. Estas credenciales de las concesiones de acceso de S3 serán específicas para el usuario autenticado de la aplicación. Una vez que el cliente de S3 se inicialice con estas credenciales de las concesiones de acceso de S3, podrá realizar solicitudes de datos de S3 con normalidad con las credenciales.

P: Dado que el cliente debe realizar modificaciones, ¿qué servicios de AWS y aplicaciones de terceros están integrados con las concesiones de acceso de S3 listas para usar actualmente?

Actualmente, las concesiones de acceso de S3 ya se integran con EMR y Spark de código abierto a través del conector S3A. Además, las concesiones de acceso de S3 se integran con software de terceros, como Immuta e Informatica para que pueda centralizar la administración de permisos. Por último, las concesiones de acceso de S3 son compatibles con Terraform y CloudFormation para que pueda aprovisionarlas de forma programática.

P: ¿Las concesiones de acceso de S3 reemplazan a AWS IAM?

No. Las concesiones de acceso de S3 no sustituyen a IAM y, de hecho, funcionan bien con sus estrategias actuales de protección de datos basadas en IAM (reglas de cifrado, red y perímetro de datos). Las concesiones de acceso de S3 se basan en primitivas de IAM y le permiten expresar permisos de S3 más detallados a escala.

P: ¿Las concesiones de acceso de S3 funcionan con KMS?

Sí. Para utilizar las concesiones de acceso de S3 para objetos cifrados con KMS, los propietarios de buckets incluyen los permisos de KMS necesarios en el rol de IAM que conceden a las concesiones de acceso de S3 como parte del registro de ubicación. Posteriormente, las concesiones de acceso de S3 pueden utilizar ese rol de IAM para acceder a los objetos cifrados con KMS en los buckets.

P: ¿Cómo puedo ver y administrar mis permisos de las concesiones de acceso de S3?

Puede utilizar la experiencia de la consola de concesiones de acceso de S3 en la consola de administración de AWS, o en las API del SDK y la CLI para ver y administrar sus permisos de concesiones de acceso de S3.

P: ¿Se puede conceder acceso público a los datos con las concesiones de acceso de S3?

No, no se puede conceder acceso público a los datos con las concesiones de acceso de S3.

P: ¿Cómo puedo auditar las solicitudes que se autorizaron mediante las concesiones de acceso de S3?

La solicitud de la aplicación para iniciar una sesión de acceso a datos con las concesiones de acceso de S3 se registrará en CloudTrail. CloudTrail distinguirá la identidad del usuario que realiza la solicitud y la identidad de la aplicación que accede a los datos en nombre del usuario. Esto lo ayuda a auditar la identidad del usuario final para saber quién accedió a qué datos y en qué momento.

P: ¿Cuáles son los precios de las concesiones de acceso de S3?

Las concesiones de acceso de S3 se cobran en función del número de solicitudes que se realicen. Para obtener más información, consulte la página de precios.

P: ¿Cuál es la relación entre las concesiones de acceso de S3 y Lake Formation?

AWS Lake Formation es para casos de uso en los que se necesita administrar el acceso a datos tabulares (por ejemplo, tablas de Glue), en los que es posible que desee aplicar el acceso a nivel de fila y columna. Las concesiones de acceso de S3 sirven para administrar el acceso a los permisos de S3 directos, como datos no estructurados, incluidos vídeos, imágenes, registros, etc.

P: ¿Las concesiones de acceso de S3 están integradas con el Analizador de acceso de IAM?

No. Las concesiones de acceso de S3 no están integradas con el Analizador de acceso de IAM en este momento. Todavía no se puede usar el Analizador de acceso de IAM para analizar las concesiones de permisos de las concesiones de acceso de S3. Los clientes pueden auditar las concesiones de acceso de S3 directamente accediendo a la página de concesiones de acceso de S3 en la consola de S3, o mediante programación utilizando la API ListAccessGrants.

Puntos de acceso de S3

P: ¿Qué son los puntos de acceso de Amazon S3?

En la actualidad, los clientes administran el acceso a sus buckets de S3 mediante una única política de bucket que controla el acceso para cientos de aplicaciones con distintos niveles de permisos.

Los puntos de acceso de Amazon S3 simplifican la administración del acceso de datos a escala para aplicaciones que utilizan conjuntos de datos compartidos en S3. Con los puntos de acceso de S3, ahora puede crear fácilmente cientos de puntos de acceso por bucket, lo que representa un nuevo modo de suministrar acceso a conjuntos de datos compartidos. Los puntos de acceso proporcionan una ruta personalizada hacia un bucket, con un nombre de host único y una política de acceso que impone los permisos específicos y los controles de red para cualquier solicitud realizada a través del punto de acceso. Los puntos de acceso de S3 se pueden asociar con buckets en la misma cuenta o en otra cuenta de confianza. Visite la página de puntos de acceso de S3 y la guía del usuario para obtener más información.

P: ¿Por qué debería usar un punto de acceso?

Los puntos de acceso de S3 simplifican la forma de administrar el acceso a los conjuntos de datos compartidos en S3. Ya no es necesario que administre una política única y compleja de buckets con cientos de reglas de permisos distintas que deben escribirse, leerse, controlarse y auditarse. Con los puntos de acceso de S3, puede crear puntos de acceso o delegar permisos a cuentas de confianza para crear puntos de acceso entre cuentas en su bucket. Esto le permite acceder a conjuntos de datos compartidos con políticas adaptadas a la aplicación específica.

Mediante el uso de puntos de acceso, puede descomponer una política de bucket extensa en políticas de puntos de acceso separadas y discretas para cada aplicación que necesite acceder a los conjuntos de datos compartidos. Esto facilita que pueda centrarse en crear la política de acceso adecuada para una aplicación, sin que deba preocuparse por interrumpir la actividad de otras aplicaciones dentro del conjunto de datos compartidos. También puede crear una política de control de servicios (SCP) y requerir que todos los puntos de acceso estén restringidos a una Virtual Private Cloud (VPC), lo que protege sus datos con un firewall dentro de sus redes virtuales. 

¿Cómo funcionan los puntos de acceso de S3?

Cada punto de acceso de S3 está configurado con una política de acceso específica para un caso de uso o una aplicación y un bucket puede tener miles de puntos de acceso. Por ejemplo, puede crear un punto de acceso para el bucket de S3 que otorgue acceso a grupos de usuarios o aplicaciones para su lago de datos. Un punto de acceso puede admitir un solo usuario o aplicación, o bien grupos de usuarios o aplicaciones dentro de las cuentas o entre ellas. Asimismo, permite administrar cada punto de acceso por separado. 

Además, puede delegar permisos a cuentas de confianza para crear puntos de acceso entre cuentas en su bucket. Los puntos de acceso entre cuentas no le permiten el acceso a los datos hasta que el propietario del bucket le haya otorgado el permiso.  El propietario del bucket siempre conserva el control final sobre los datos y debe actualizar la política del bucket para autorizar solicitudes de punto de acceso entre cuentas. Consulte la guía del usuario para ver un ejemplo de política de bucket.

Cada punto de acceso está asociado con un bucket único y contiene un control de origen de red y un control de bloqueo del acceso público. Puede crear un punto de acceso con un control de origen de red que solo permita acceso de almacenamiento desde su nube virtual privada, una sección aislada lógicamente de la nube de AWS. También puede crear un punto de acceso con la política de punto de acceso configurada para permitir solo el acceso a objetos con prefijos definidos o a objetos con etiquetas específicas.

Puede acceder a los datos de los buckets compartidos a través de un punto de acceso de dos maneras. Para las operaciones con objetos de S3, puede utilizar el ARN del punto de acceso en lugar de un nombre de bucket. En el caso de las solicitudes que requieran un nombre de bucket con el formato estándar de nombre de bucket de S3, se puede utilizar un alias de punto de acceso en su lugar. Los alias de puntos de acceso de S3 se generan de manera automática y son intercambiables con nombres de buckets de S3 en cualquier lugar en el que se utilice un nombre de bucket para acceder a datos. Cada vez que cree un punto de acceso para un bucket, S3 genera automáticamente un nuevo alias de punto de acceso. Para obtener el conjunto completo de operaciones y servicios de AWS compatibles, consulte la documentación de S3.

P: ¿Hay alguna cuota sobre cuántos puntos de acceso puedo crear?

De manera predeterminada, puede crear 10 000 puntos de acceso por región por cuenta en los buckets de su cuenta y entre cuentas. A diferencia de los buckets de S3, no hay un límite estricto en el número de puntos de acceso por cuenta de AWS. Visite AWS Service Quotas para solicitar un aumento de esta cuota.

P: Cuando utilizamos un punto de acceso, ¿cómo se autorizan las solicitudes?

Los puntos de acceso S3 tienen su propia política de punto de acceso IAM. Usted escribe las políticas de punto de acceso que tal como lo haría con la política de bucket, utilizando el ARN del punto de acceso como recurso. Las políticas de punto de acceso pueden otorgar o restringir el acceso a los datos de S3 solicitados a través del punto de acceso. Amazon S3 evalúa todas las políticas de pertinentes, incluidas las políticas de control de servicios, de usuario, bucket, punto de acceso y punto de enlace de la VPC, así como las listas de control de acceso, a fin de decidir si se debe autorizar a solicitud.

P: ¿Cómo escribo las políticas de punto de acceso?

Puede escribir una política de punto de acceso del mismo modo que una política de bucket mediante reglas de IAM para controlar los permisos y el ARN de punto de acceso en el documento de la política.

P: ¿En qué se diferencia restringir el acceso a VPC específicos mediante controles de origen de red en puntos de acceso con restringir el acceso a los VPC utilizando la política de bucket?

Puede seguir utilizando las políticas de bucket para limitar el acceso de los buckets a VPC específicos. Los puntos de acceso proporciona un modo de auditoría más fácil para bloquear todos los datos o un subconjunto de ellos en un conjunto de datos compartidos para el tráfico único de VPC para todas las aplicaciones de su organización que utiliza controles de la API. Usted puede usar una política de control de servicios (SCP) de AWS Organizations para ordenar que ningún punto de acceso creado en su organización establezca el valor del parámetro API “control de origen de red” en “vpc”. Entonces, cualquier punto de acceso nuevo creado automáticamente restringe el acceso a los datos al tráfico único de VPC. No se requiere ninguna política de acceso adicional para asegurarse de que se procesaron solicitudes de datos únicamente de VPC especificadas.

P: ¿Puedo aplicar una política de “Sin acceso a datos de Internet” en todos los puntos de acceso de mi organización?

Sí. Para aplicar una política de “Sin acceso a datos de Internet” en los puntos de acceso de su organización, deberá asegurarse de que todos los puntos de acceso hagan cumplir el acceso único de VPC. Para ello, deberá escribir un SCP de AWS que solo admita el valor “vpc” para el parámetro “control de origen de red” en la API create_access_point(). En caso de tener puntos de acceso orientados a Internet que haya creado antes, pueden eliminarse. También necesitará modificar la política de bucket en cada uno de los buckets para restringir aún más el acceso a Internet directamente en su bucket a través del nombre de host del bucket. Dado que otros servicios de AWS pueden estar accediendo a su bucket de forma directa, asegúrese de configurar el acceso de manera que permita los servicios de AWS que usted desea mediante la modificación de la política para permitir estos servicios de AWS. Consulte la documentación de S3 para conocer ejemplos de cómo hacerlo.

P: ¿Puedo deshabilitar por completo el acceso directo a un bucket utilizando el nombre de host del bucket?

No actualmente, pero puede vincular la política de un bucket que rechace las solicitudes que no fueron creadas utilizando un punto de acceso. Consulte la documentación de S3 para obtener más información.

P: ¿Puedo sustituir o eliminar un punto de acceso de un bucket?

Sí. Cuando elimina un punto de acceso, no se interrumpirá el acceso al bucket asociado a través de otros puntos de acceso, y a través del nombre de host del bucket.

P: ¿Cuál es el costo de los puntos de acceso de Amazon S3?

No hay cargo adicional para los puntos de acceso o para los buckets que usan puntos de acceso. Se aplican las tarifas de solicitud habituales de Amazon S3.

P: ¿Cómo puedo comenzar a usar los puntos de acceso de S3?

Puede empezar creando puntos de acceso de S3 en buckets nuevos, así como en buckets existentes, mediante la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS, la interfaz de programación de aplicaciones (API) y el cliente del kit de desarrollo de software (SDK) de AWS. Para obtener más información sobre los puntos de acceso de S3, consulte la guía del usuario.

Durabilidad y protección de datos

P: ¿Qué nivel de durabilidad ofrece Amazon S3?

Amazon S3 proporciona el almacenamiento más duradero de la nube. Gracias a su arquitectura única, S3 está diseñado para proveer el 99,999999999 % (11 nueves) de durabilidad de los datos. Además, S3 almacena los datos de forma redundante en un mínimo de tres zonas de disponibilidad (AZ) de forma predeterminada, lo que proporciona resiliencia integrada ante desastres generalizados. Los clientes pueden almacenar los datos en una única zona de disponibilidad para minimizar los costos de almacenamiento o la latencia, en varias zonas de disponibilidad para evitar la pérdida permanente de todo un centro de datos o en varias regiones de AWS para cumplir con los requisitos de resiliencia geográfica.

P: ¿Cómo está diseñado Amazon S3 para ofrecer una durabilidad del 99,999999999 %?

El diseño de Amazon S3 para la durabilidad depende de las tasas de errores de los dispositivos de almacenamiento y de la velocidad a la que S3 puede detectar los errores y, a continuación, volver a replicar los datos en esos dispositivos. S3 realiza una comprobación de integridad de extremo a extremo en cada carga de objetos y verifica que todos los datos se almacenen de forma correcta y redundante en varios dispositivos de almacenamiento antes de considerar que la carga se ha realizado de forma correcta. Una vez que los datos se almacenan en S3, S3 supervisa de forma continua la durabilidad de los datos a lo largo del tiempo con comprobaciones periódicas de integridad de todos los datos en reposo. S3 también supervisa de forma activa la redundancia de los datos para ayudar a verificar que los objetos puedan tolerar los fallos simultáneos de varios dispositivos de almacenamiento.

P: ¿Los datos almacenados en una clase de almacenamiento de una zona están protegidos contra los daños o la pérdida de la zona de disponibilidad?

En el improbable caso de pérdida o daño de la totalidad o parte de una zona de disponibilidad de AWS, es posible que se pierdan los datos de una clase de almacenamiento de una zona. Por ejemplo, eventos como incendios o daños causados por el agua podrían provocar la pérdida de los datos. Además de este tipo de eventos, las clases de almacenamiento de una zona utilizan diseños de ingeniería similares a los de las clases de almacenamiento regionales para proteger los objetos de errores independientes a nivel de disco, host y bastidor, y cada una está diseñada para ofrecer una durabilidad de datos del 99,999999999 %.

P: ¿Cómo supera Amazon S3 una durabilidad del 99,999999999 %?

Amazon S3 tiene una sólida cultura de durabilidad, y nuestros sistemas y software incorporan las prácticas recomendadas de durabilidad desde cero. AWS tiene más experiencia en la administración de almacenamiento de alta durabilidad que cualquier otro proveedor de la nube, y utilizamos esta experiencia para mitigar el riesgo de durabilidad e incorporar medidas de protección de la durabilidad en todo lo que hacemos.

P: Con una durabilidad tan alta, ¿debo seguir haciendo copias de seguridad de mis datos críticos?

Sí. El sistema de durabilidad de Amazon S3 no protege contra eliminaciones accidentales o maliciosas. S3 confía en que los clientes decidan qué datos quieren conservar, de qué datos quieren deshacerse y qué controles opcionales necesitan para protegerse de las eliminaciones incorrectas, ya sean accidentales o maliciosas. Cuando le indica a Amazon S3 que elimine datos, esos datos se eliminan de inmediato y AWS no puede recuperarlos. Cumplir con una solicitud de eliminación de esta manera es una característica importante del servicio.

P: ¿Qué capacidades ofrece Amazon S3 para proteger mis datos contra eliminaciones accidentales o maliciosas?

El control de versiones de objetos de S3, la replicación de S3 y el bloqueo de objetos de S3 son características opcionales que puede utilizar para agregar protección de datos adicional, más allá de la durabilidad que S3 proporciona de forma automática. Además, puede usar una aplicación de respaldo para hacer copias de seguridad de todos o parte de los datos de sus buckets de S3.

P: ¿Qué sumas de comprobación admite Amazon S3 para la comprobación de la integridad de los datos?

Simple Storage Service (Amazon S3) utiliza una combinación de sumas de comprobación MD5 de contenido, algoritmos de hash seguros (SHA) y verificaciones de redundancia cíclica (CRC) para comprobar la integridad de los datos. Simple Storage Service (Amazon S3) realiza estas sumas de comprobación en los datos en reposo y repara cualquier disparidad utilizando datos redundantes. Además, S3 calcula las sumas de comprobación de todo el tráfico de la red para detectar paquetes de datos con alteraciones durante el almacenamiento o la recuperación de los datos. Puede elegir entre cuatro algoritmos de suma de comprobación compatibles para comprobar la integridad de los datos de las solicitudes de carga y descarga. Puede elegir un algoritmo de suma de comprobación SHA-1, SHA-256, CRC32 o CRC32C en función de las necesidades de su aplicación. Puede calcular automáticamente y verificar sumas de comprobación a medida que almacena o recupera datos de S3. También puede acceder a la información de la suma de comprobación en cualquier momento usando la API GetObjectAttributes de S3 o el informe de inventario de S3. Calcular una suma de comprobación mientras transmite datos a S3 supone un ahorro de tiempo, pues puede verificar y transmitir sus datos en un único paso en lugar de tener que hacer dos operaciones secuenciales. El uso de sumas de comprobación para la validación de datos es una práctica recomendada para la durabilidad de los datos. Estas capacidades aumentan el rendimiento y reducen el coste de hacerlo.

P: ¿Qué es el control de versiones?

El control de versiones le permite conservar, recuperar y restaurar todas las versiones de todos los objetos almacenados en un bucket de Amazon S3. Cuando habilite el control de versiones para un bucket, Amazon S3 conservará los objetos existentes cada vez que realice una operación PUT, POST, COPY o DELETE sobre ellos. De forma predeterminada, las solicitudes GET recuperarán la versión escrita más recientemente. Las versiones más antiguas de un objeto sobrescrito o eliminado podrán recuperarse si se especifica una versión en la solicitud.

P: ¿Por qué debo utilizar el control de versiones?

Amazon S3 ofrece a los clientes una infraestructura de almacenamiento que presenta elevados niveles de durabilidad. El control de versiones ofrece un nivel de protección adicional, proporcionando un medio de recuperación cuando los clientes sobrescriben o eliminan de forma accidental objetos. Esto le permite recuperarse fácilmente ante acciones no deseadas del usuario y errores de la aplicación. También puede utilizar el control de versiones para retener y archivar datos.

P: ¿Cómo puedo comenzar a utilizar el control de versiones?

Puede comenzar a utilizar el control de versiones si habilita el ajuste correspondiente del bucket de Amazon S3. Para obtener más información sobre cómo puede habilitar el control de versiones, consulte la documentación de Amazon S3.

P: ¿De qué forma el control de versiones evita que se eliminen objetos accidentalmente?

Cuando un usuario realiza una operación DELETE sobre un objeto, las posteriores solicitudes sencillas (sin versión) no recuperarán el objeto. Sin embargo, todas las versiones de dicho objeto seguirán conservándose en el bucket Amazon S3 y podrán recuperarse o restablecerse. El único usuario que puede eliminar una versión de forma permanente de un bucket de Amazon S3 es el propietario. Puede definir reglas de ciclo de vida a fin de administrar el ciclo de vida y el costo del almacenamiento de varias versiones de los objetos.

P: ¿Puedo configurar una papelera, una papelera de reciclaje o un periodo de reversión en los objetos de Amazon S3 para poder recuperar objetos eliminados y sobrescritos?

Puede usar las reglas de ciclo de vida de Amazon S3 junto con el control de versiones de S3 a fin de implementar un periodo de reversión para los objetos de S3. Por ejemplo, en un bucket con el control de versiones habilitado, puede configurar una regla que archive todas las versiones anteriores en la clase de almacenamiento de S3 Glacier Flexible Retrieval de menor costo y las elimine transcurridos 100 días, de manera que dispondrá de un periodo de 100 días para revertir cualquier cambio implementado en los datos al mismo tiempo que podrá reducir los costos de almacenamiento. Además, puede ahorrar costos si elimina las versiones antiguas (no actuales) de un objeto después de cinco días y cuando haya al menos dos versiones más recientes del objeto. Puede cambiar el número de días o de versiones más recientes según sus necesidades de optimización de costos. Esto permite retener versiones adicionales de los objetos cuando sea necesario, a la vez que supone un ahorro de costos mediante su transición o eliminación tras un periodo.

P: ¿Cómo puedo garantizar la máxima protección de las versiones conservadas?

La capacidad de eliminación de la autenticación multifactor (MFA) del control de versiones se puede utilizar para suministrar una capa de seguridad adicional. De forma predeterminada, todas las solicitudes realizadas a su bucket de Amazon S3 exigen las credenciales de su cuenta de AWS. Si habilita el control de versiones con la eliminación de MFA en su bucket de Amazon S3, se exigirán dos vías de autenticación para que pueda eliminarse de forma permanente una versión de un objeto: las credenciales de su cuenta de AWS y un código de seis dígitos válido y un número de serie de un dispositivo de autenticación físico que se encontrará en sus manos. Para obtener más información sobre la activación del control de versiones con eliminación de MFA, incluido cómo adquirir y activar un dispositivo de autenticación, consulte la documentación de Amazon S3.

P: ¿Cómo se cobra el uso del control de versiones?

A toda versión de un objeto almacenado o solicitado de Amazon S3 se le aplican las tarifas normales. Por ejemplo, observemos el siguiente caso para ilustrar los costos de almacenamiento cuando se utiliza el control de versiones (supongamos que el mes actual tiene 31 días):

1) Día 1 del mes: realiza una operación PUT de 4 GB (4 294 967 296 bytes) en su bucket.
2) Día 16 del mes: realiza una operación PUT de 5 GB (5 368 709 120 bytes) en el mismo bucket de datos utilizando la misma clave que la operación PUT original del día 1.

Al analizar los costos de almacenamiento de las operaciones anteriores, debe tener en cuenta que el objeto de 4 GB del día 1 no se elimina del bucket cuando se escribe el objeto de 5 GB el día 15. En su lugar, el objeto de 4 GB se conserva como una versión más antigua, y el objeto de 5 GB pasa a ser la versión más recientemente escrita dentro del objeto que se encuentra en su bucket. A finales de mes:

Uso total de byte-hora
[4 294 967 296 bytes x 31 días x (24 horas/día)] + [5 368 709 120 bytes x 16 días x (24 horas/día)] = 5 257 039 970 304 byte-horas.

Conversión a GB/mes totales
5 257 039 970 304 bytes por hora x (1 GB/1 073 741 824 bytes) x (1 mes/744 horas) = 6,581 GB/mes

El costo se calcula en función de las tasas vigentes para su región, que aparecen en la página de precios de Amazon S3.

Bloqueo de objetos de S3

P: ¿Qué es el bloqueo de objetos de Amazon S3?

El bloqueo de objetos de Amazon S3 es una característica de Amazon S3 que impide que una versión de objeto se elimine o sobrescriba durante un tiempo fijo o indefinido. La característica permite aplicar políticas de retención como un nivel adicional de protección de datos o con fines de cumplimiento normativo. Puede migrar las cargas de trabajo desde sistemas del tipo de escritura única, lectura múltiple (WORM) hacia Amazon S3 y configurar el bloqueo de objetos de S3 en el nivel de objeto y de bucket para evitar la eliminación de una versión del objeto con anterioridad a la fecha que figura en Retener hasta o indefinidamente en Retención legal. La protección del bloqueo de objetos de S3 se mantiene independientemente del tipo de almacenamiento en el que resida la versión del objeto y durante las transiciones de ciclo de vida de S3 entre tipos de almacenamiento. 

Debería usar el bloqueo de objetos de S3 si tiene requisitos normativos que especifiquen que los datos deben estar protegidos por WORM, o si desea agregar una capa adicional de protección a los datos en Amazon S3. El bloqueo de objetos de S3 puede ayudarle a cumplir con los requisitos normativos que especifican que los datos deben almacenarse en formato inmutable. Además, puede brindar protección contra la eliminación accidental o intencional de los datos en Amazon S3.

Para obtener más información, visite la página de la guía de usuario de bloqueo de objetos de S3.

P: ¿Cómo funciona el bloqueo de objetos de Amazon S3?

El bloqueo de objetos de Amazon S3 impide que se elimine una versión de un objeto durante un periodo de retención especificado o indefinidamente hasta que se elimine una retención legal. Con el bloqueo de objetos de S3, puede asegurarse de que una versión de un objeto permanezca inmutable mientras se aplique la protección WORM. Puede implementar la protección de WORM mediante la asignación de una fecha en Retener hasta o en Retención legal a una versión de objeto con el SDK de AWS, la CLI, la API de REST o la consola de administración de S3. Puede implementar la configuración de retención dentro de una solicitud PUT o implementarla en un objeto existente después de su creación.

La fecha que figura en Retener hasta define la duración por la que la versión de objeto permanecerá inmutable. Una vez asignada la fecha en Retener hasta a un objeto, esa versión del objeto no podrá modificarse o eliminarse hasta que haya transcurrido esta fecha. Si un usuario intenta eliminar un objeto antes de la fecha en Retener hasta, la operación se rechazará.

A modo de alternativa, puede hacer que un objeto sea inmutable mediante la aplicación de una retención legal. Una retención legal impide que una versión de un objeto se modifique o se borre indefinidamente hasta que se elimine explícitamente. Para poder colocar y eliminar retenciones legales, su cuenta de AWS debe tener permiso de escritura para la acción PutObjectLegalHold. Se puede implementar una retención legal en un bucket compatible con el bloqueo de objetos de S3, independientemente de si este objeto cuenta o no con protección de WORM durante un periodo de retención.

El bloqueo de objetos de S3 puede configurarse en uno de dos modos. Cuando se implementa en modo Gobernanza, las cuentas de AWS con permisos de IAM específicos pueden eliminar la protección de WORM de una versión de objetos. Si se requiere mayor inmutabilidad para cumplir las normativas, puede utilizar el modo de conformidad. En el modo de conformidad, ningún usuario puede eliminar la protección de WORM, ni siquiera la cuenta raíz.

¿Cómo habilito el bloqueo de objetos de Amazon S3 en un bucket?

Puede utilizar la consola de Amazon S3, la API de AWS o la CLI de AWS para habilitar el bloqueo de objetos de S3 al crear un nuevo bucket o para configurar el bloqueo de objetos de S3 en los buckets existentes. Para habilitar el bloqueo de objetos de S3 en los buckets existentes, puede utilizar la consola de Amazon S3 para editar la configuración del bloqueo de objetos de S3 en la pestaña Propiedades del bucket, la API de AWS PutObjectLockConfiguration o la CLI de AWS. Una vez que se habilite el bloqueo de objetos de S3, puede establecer un tiempo y un modo de retención predeterminados a nivel de bucket que se aplicarán a todos los objetos nuevos cargados en el bucket. Para obtener más información, consulte la documentación sobre la configuración del bloqueo de objetos de S3 mediante la consola S3la API de AWS y la CLI de AWS

P: ¿Cómo afecta la activación del bloqueo de objetos de S3 en los buckets existentes a los nuevos objetos cargados en los buckets?

Tras habilitar el bloqueo de objetos de S3 en los buckets existentes, tiene la opción de establecer un modo de retención y un período predeterminados del bloqueo de objetos de S3 para todos los objetos nuevos cargados en el bucket. En la consola S3, puede hacerlo desde la pestaña Propiedades de un bucket seleccionado y habilitando el modo de retención y el período de retención predeterminados para todos los objetos nuevos cargados en el bucket. Como alternativa, puede optar por no configurar ningún ajuste de bloqueo de objetos a nivel de bucket, lo que mantendrá desbloqueados los nuevos objetos de los buckets. A continuación, puede bloquear objetos individuales mediante la edición de la configuración del bloqueo de objetos de S3 en la pestaña Propiedades del objeto o utilizar las operaciones por lotes de S3 para bloquear objetos en grupo. Para obtener más información, consulte la documentación sobre la configuración de retención predeterminada.

P: ¿Cómo afecta la activación del bloqueo de objetos de S3 para los buckets existentes a los objetos que ya existen en ellos?

Tras habilitar el bloqueo de objetos de S3 en los buckets existentes, la configuración de retención solo se aplica a los nuevos objetos cargados en los buckets. Para bloquear objetos ya existentes en los buckets, se puede optar por modificar las propiedades de retención individuales a nivel de objeto mediante la consola de Amazon S3, la CLI de AWS o la API de AWS. En la consola S3, puede hacerlo en la pestaña Propiedades del objeto y editar la retención legal del bloqueo de objetos o la configuración de retención de bloqueo de objetos. Como alternativa, se puede utilizar operaciones por lotes de S3 para administrar la retención o habilitar la retención legal de varios objetos a la vez. Para obtener más información, consulte la documentación sobre cómo habilitar el bloqueo de objetos de S3 mediante operaciones por lotes de S3.

P: ¿Puedo desactivar el bloqueo de objetos de S3 después de habilitarlo?

No, no puede deshabilitar el bloqueo de objetos de S3 ni el control de versiones de S3 para los buckets una vez que esté habilitado el bloqueo de objetos de S3.

P: ¿Cómo puedo empezar a replicar objetos de buckets con el bloqueo de objetos de S3 activado?

Para empezar a replicar objetos con Replicación de S3 desde buckets con el bloqueo de objetos de S3 activado, puede agregar una configuración de replicación en su bucket de origen especificando un bucket de destino en la misma región de AWS o en una diferente y en la misma cuenta de AWS o en una diferente. Puede elegir replicar todos los objetos en el nivel del bucket de S3 o filtrar los objetos en un nivel de prefijo compartido o en un nivel de objeto mediante etiquetas de objetos de S3. También tendrá que especificar un rol de AWS Identity and Access Management (IAM) con los permisos necesarios para realizar la operación de replicación. Puede usar la consola S3, la API de AWS, la CLI de AWS, los SDK de AWS o AWS CloudFormation para habilitar la replicación, y debe tener habilitado el control de versiones de S3 para los buckets de origen y destino. Además, para replicar objetos desde buckets habilitados para el bloqueo de objetos de S3, su bucket de destino también debe tener habilitado el bloqueo de objetos de S3. Para obtener más información, consulte la documentación sobre la configuración de Replicación de S3 y el uso de bloqueo de objetos de S3 con Replicación de S3

P: ¿Necesito permisos adicionales para replicar objetos desde buckets con el bloqueo de objetos de S3 activado?

Sí, para replicar objetos de los buckets habilitados para bloqueo de objetos de S3, debe conceder dos permisos nuevos, s3:GetObjectRetention y s3:GetObjectLegalHold, en el bucket de origen del rol de IAM que usa para configurar la replicación. Como alternativa, si el rol de IAM tiene un permiso s3:Get*, cumple el requisito. Para obtener más información, consulte la documentación sobre el uso de bloqueo de objetos de S3 con Replicación de S3.

P: ¿Hay alguna limitación para usar Replicación de S3 al replicar desde buckets de bloqueo de objetos de S3?

No, todas las características de Replicacion de S3, como la replicación en la misma región de S3 (S3 SRR), la replicación entre regiones de S3 (S3 CRR), las métricas de replicación de S3 para realizar un seguimiento del progreso, el control del tiempo de replicación de S3 (S3 RTC) y la replicación por lotes de S3, son compatibles al replicar desde buckets de bloqueo de objetos de S3.

P: ¿Cómo puedo replicar objetos existentes desde buckets habilitados para bloqueo de objetos de S3?

Puede utilizar la replicación por lotes de S3 para replicar objetos existentes desde buckets habilitados para bloqueo de objetos de S3. Para obtener más información sobre la replicación de objetos existentes, consulte la documentación sobre la replicación por lotes de S3.

P: ¿Cuál es el estado de retención de las réplicas de los objetos de origen protegidos con bloqueo de objetos de S3?

Las réplicas de objetos protegidos con bloqueo de objetos de S3 siguen la misma política de retención que los objetos de origen. Puede usar los comandos GET Object o HEAD Object para ver el estado de bloqueo de objetos de los objetos de réplica. Ambos comandos devuelven el modo de retención, retener hasta la fecha y el estado de retención legal de la versión del objeto especificada. También es posible configurar los informes de Amazon S3 Inventory en los buckets para incluir la fecha de retención, el modo de retención y el estado de retención legal de todos los objetos de un bucket. Para obtener más información, consulte la documentación sobre la visualización de la información de bloqueo de objetos de S3 de un objeto y la configuración de Amazon S3 Inventory.

Clases de almacenamiento

P: ¿Qué son las clases de almacenamiento de Amazon S3?

Amazon S3 ofrece una variedad de clases de almacenamiento basados en el acceso a los datos, resiliencia y requisitos de costos de sus cargas de trabajo entre los que puede elegir. Las clases de almacenamiento de S3 se crearon específicamente para brindar el menor costo posible de almacenamiento para los diferentes patrones de acceso. Las clases de almacenamiento de S3 son ideales prácticamente para cualquier caso de uso, incluidos los que cuentan con necesidades de rendimiento demandantes, requisitos de residencia de datos, patrones de acceso desconocidos o cambiantes o almacenamiento de archivos. Cada clase de almacenamiento de S3 cobra una tarifa para almacenar datos y otras tarifas para acceder a los datos. Al momento de decidir qué clase de almacenamiento de S3 es la más adecuada para su carga de trabajo, tenga en cuenta los patrones de acceso y el tiempo de retención de los datos para optimizar el costo total más bajo durante la vida útil de sus datos.

Las clases de almacenamiento de S3 se pueden configurar a nivel de objeto y un solo bucket puede contener objetos almacenados en todas las clases de almacenamiento. También puede usar las políticas de ciclo de vida de S3 para trasladar automáticamente objetos entre tipos de almacenamiento sin realizar cambios en las aplicaciones.

P: ¿Cómo decido qué clase de almacenamiento de S3 usar?

Al momento de decidir qué clase de almacenamiento de S3 es la más adecuada para su carga de trabajo, tenga en cuenta los patrones de acceso y el tiempo de retención de los datos para optimizar el costo total más bajo durante la vida útil de sus datos. Muchas cargas de trabajo tienen patrones de acceso cambiantes (contenido generado por el usuario), impredecibles (análisis, lagos de datos) o desconocidos (aplicaciones nuevas), y es por eso que S3 Intelligent-Tiering debe ser la clase de almacenamiento predeterminada para ahorrar automáticamente en costos de almacenamiento. Si conoce los patrones de acceso de los datos, puede seguir esta guía. La clase de almacenamiento S3 Standard es ideal para los datos a los que se accede con frecuencia. Es la mejor opción si accede a sus datos más de una vez al mes. S3 Standard-Infrequent Access es ideal para los datos retenidos al menos durante un mes y a los que se accede cada uno o dos meses.

Las clases de almacenamiento de Amazon S3 Glacier se crearon específicamente para el archivado de datos y le ofrecen el mayor rendimiento, la mayor flexibilidad de recuperación y el menor costo de almacenamiento de archivos en la nube. Ahora puede elegir entre tres clases de almacenamiento de archivos optimizadas para diferentes patrones de acceso y duración del almacenamiento. Para los datos de archivado que necesitan un acceso inmediato, como las imágenes médicas, los activos de los medios de comunicación o los datos genómicos, elija la clase de almacenamiento S3 Glacier Instant Retrieval, una clase de almacenamiento de archivos que ofrece el almacenamiento de menor costo con una recuperación de tan solo milisegundos. Para los datos de archivado que no requieren acceso inmediato, pero necesitan la flexibilidad de recuperar grandes conjuntos de datos sin costo alguno, como los casos de uso de copias de seguridad o recuperación de desastres, elija S3 Glacier Flexible Retrieval, con recuperación en minutos o recuperaciones masivas gratuitas de 5 a 12 horas. Para ahorrar aún más en el almacenamiento de archivos de larga duración, como los archivos de conformidad y la preservación de contenido multimedia digital, elija S3 Glacier Deep Archive, el almacenamiento de menor costo en la nube con una recuperación de datos de 12 horas. Todas estas clases de almacenamiento proporcionan resiliencia en múltiples zonas de disponibilidad mediante el almacenamiento de los datos de manera redundante en varios dispositivos y en zonas de disponibilidad de AWS separadas físicamente en una región de AWS.

Para los datos con un requisito de resiliencia menor, puede reducir costos al seleccionar una clase de almacenamiento con una sola zona de disponibilidad, como S3 One Zone-Infrequent Access. Si tiene requisitos de latencia o residencia de datos con los que no puede cumplir en una región de AWS existente, puede elegir S3 en Outposts para almacenar sus datos de forma local.

Puede obtener más información sobre estas clases de almacenamiento en la página clases de almacenamiento de Amazon S3

S3 Intelligent-Tiering

P: ¿Qué es S3 Intelligent-Tiering?

S3 Intelligent-Tiering es el primer almacenamiento en la nube que reduce automáticamente los costos de almacenamiento a nivel pormenorizado de objeto al mover automáticamente los datos al nivel de acceso más rentable según la frecuencia de acceso, sin impacto en el rendimiento, tarifas de recuperación ni gastos operativos. S3 Intelligent-Tiering ofrece una latencia en milisegundos y un alto rendimiento para los datos a los que se accede de manera frecuente, poco frecuente y de forma inusual en los nuevos niveles de acceso instantáneo, frecuente y poco frecuente a archivos. Por un pequeño cargo mensual de monitoreo y automatización de objetos, S3 Intelligent-Tiering monitorea los patrones de acceso y traslada automáticamente los objetos de una capa a otra. No se cobran cargos de recuperación en S3 Intelligent-Tiering, de forma que no verá aumentos inesperados en las facturas de almacenamiento cuando cambien los patrones de acceso.

Puede utilizar S3 Intelligent-Tiering como la clase de almacenamiento predeterminada para prácticamente cualquier carga de trabajo, en especial lagos de datos, análisis de datos, machine learning, nuevas aplicaciones y contenido generado por el usuario.

P: ¿Cómo funciona S3 Intelligent-Tiering?

La clase de almacenamiento Amazon S3 Intelligent-Tiering se ha diseñado para optimizar los costos mediante la migración automática de los datos al nivel de acceso más rentable, sin que se produzca una sobrecarga operativa. Por un pequeño cargo mensual de monitoreo y automatización de objetos, S3 Intelligent-Tiering monitorea los patrones de acceso y mueve automáticamente los objetos a los que no se accedió durante 30 días consecutivos a la capa de acceso poco frecuente,para ahorrar hasta un 40 % en costos de almacenamiento. Si no se accede después de 90 días consecutivos, los objetos son movidos al nivel de acceso instantáneo para ahorrar hasta un 68 % en costos de almacenamiento. No hay un impacto en el rendimiento ni cargos de recuperación en S3 Intelligent-Tiering. Si se accede más adelante a un objeto del nivel de acceso poco frecuente o de acceso instantáneo, automáticamente regresa al nivel de acceso frecuente.

Para un menor costo de almacenamiento de datos a los que se puede acceder de manera asíncrona, puede activar las capacidades de archivado automáticas. Una vez que haya activado uno o ambos niveles asíncronos de acceso a archivos, S3 Intelligent-Tiering migrará los objetos a los que no se haya accedido durante un periodo mínimo de 90 días al nivel de acceso al archivo, para ahorrar hasta un 71 %, y después de 180 días sin acceso, al nivel de acceso profundo, para ahorrar hasta un 95 % en el caso de archivos a los que se accede raramente. Si se restaura más adelante un objeto en los niveles opcionales de archivo o de acceso profundo, regresa al nivel de acceso frecuente, y antes de recuperar el objeto, debe restaurarlo primero con RestoreObject. Para más información acerca de la restauración de objetos archivados, consulte Restauración de objetos archivados. No hay cargos de recuperación en S3 Intelligent-Tiering. No se aplican cargos adicionales a las capas o al ciclo de vida cuando los objetos se desplazan entre las capas de acceso dentro del tipo de almacenamiento S3 Intelligent-Tiering.

S3 Intelligent-Tiering no tiene un tamaño de objeto mínimo, pero los objetos inferiores a 128 KB no son elegibles para la designación automática de capas. Estos objetos de tamaño inferior se pueden almacenar en S3 Intelligent-Tiering, pero siempre se cobran de acuerdo con las tarifas de nivel de acceso frecuente, sin cargos de monitoreo o automatización.

Si desea estandarizar S3 Intelligent-Tiering como clase de almacenamiento predeterminada para los datos recién creados, puede modificar sus aplicaciones al introducir INTELLIGENT-TIERING en el encabezado de solicitud PUT de la API de S3. S3 Intelligent-Tiering está diseñado para una disponibilidad del 99,9 % y una durabilidad del 99,999999999 %, y ofrece automáticamente la misma baja latencia y alto rendimiento que S3 Standard. Puede utilizar AWS Cost Explorer para calcular el ahorro adicional del nivel de acceso instantáneo a los archivos.

P: ¿Por qué elegiría usar S3 Intelligent-Tiering?

Puede utilizar S3 Intelligent-Tiering como la clase de almacenamiento predeterminada para prácticamente cualquier carga de trabajo, en especial lagos de datos, análisis de datos, machine learning, nuevas aplicaciones y contenido generado por el usuario. S3 Intelligent-Tiering es el primer almacenamiento en la nube que reduce automáticamente los costos de almacenamiento a nivel pormenorizado de objeto al mover automáticamente los datos al nivel de acceso más rentable según la frecuencia de acceso, sin impacto en el rendimiento, tarifas de recuperación ni gastos operativos. Si tiene datos con patrones de acceso desconocidos o que cambian constantemente, incluyendo lagos de datos, análisis de datos y nuevas aplicaciones, recomendamos el uso de S3 Intelligent-Tiering. Si tiene datos que no requieren recuperación inmediata, recomendamos activar el nivel de acceso profundo, en el que paga apenas 1 USD por TB por mes para datos a los que se accede raramente durante largos periodos de tiempo. S3 Intelligent-Tiering es para datos con patrones de acceso desconocidos o cambiantes. No existen cargos de recuperación al usar la clase de almacenamiento S3 Intelligent-Tiering.

P: ¿Qué rendimiento ofrece S3 Intelligent-Tiering?

S3 Intelligent-Tiering optimiza de manera automática los costos de almacenamiento sin impacto en el rendimiento. Los niveles de acceso frecuente, poco frecuente e instantáneo de S3 Intelligent-Tiering ofrecen una latencia en milisegundos y alto rendimiento.

P: ¿Qué rendimiento ofrecen los niveles opcionales de acceso a archivos y de acceso profundo?

Para datos a los que se puede acceder de manera asincrónica, el nivel opcional de acceso a archivos tiene el mismo rendimiento que S3 Glacier Flexible Retrieval, y el nivel de acceso profundo tiene el mismo rendimiento que la clase de almacenamiento S3 Glacier Deep Archive. Solo debe activar las capacidades de archivo asíncronas si la aplicación puede esperar minutos u horas. Si el objeto que está recuperando está almacenado en las capas de acceso al archivo o archivo profundo, antes de poder recuperar el objeto debe restaurar primero un objeto mediante RestoreObject. Para obtener más información sobre la restauración de objetos archivados, consulte Restauración de objetos archivados. Los objetos en el nivel de acceso a archivos se trasladan al nivel de acceso frecuente en un plazo de 3 a 5 horas y los que están en el nivel de acceso a archivos profundo, en un plazo de 12 horas. Si necesita acceder más rápidamente a un objeto en el nivel de acceso a archivos, puede pagar por una recuperación más rápida mediante la consola, donde podrá seleccionar la opción de velocidad de recuperación acelerada.

P: ¿Cuál es el nivel de duración y disponibilidad de S3 Intelligent-Tiering?

S3 Intelligent-Tiering está diseñado para lograr la misma durabilidad del 99,999999999 % que la clase de almacenamiento S3 Estándar. S3 Intelligent-Tiering está diseñado para ofrecer una disponibilidad del 99,9 % y está respaldado por un acuerdo de nivel de servicios que proporciona créditos de servicio si la disponibilidad se encuentra por debajo de nuestro compromiso de servicio dentro de un ciclo de facturación.

P: ¿Cómo transfiero mis datos a S3 Intelligent-Tiering?

Existen dos maneras para transferir los datos a S3 Intelligent-Tiering. Puede colocar PUT directamente en S3 Intelligent-Tiering con la especificación INTELLIGENT_TIERING en el encabezado x-amz-storage-class o establecer políticas de ciclo de vida para transferir objetos de S3 Estándar o S3 Estándar - Acceso poco frecuente a S3 INTELLIGENT_TIERING.

P: ¿Cómo se paga el uso de S3 Intelligent-Tiering?

S3 Intelligent-Tiering cobra por el almacenamiento, las solicitudes y la transferencia de datos mensuales y cobra un pequeño cargo mensual por el monitoreo y la automatización por objeto. La clase de almacenamiento S3 Intelligent-Tiering almacena de manera automática objetos en tres niveles de acceso: el nivel de acceso frecuente, con tarifas de almacenamiento de S3 Standard; el nivel de acceso poco frecuente, con tarifas de S3 Standard-Infrequent Access Storage; y el nivel de acceso instantáneo, con tarifas de almacenamiento de S3 Glacier Instant Retrieval. S3 Intelligent-Tiering también tiene dos niveles de archivo opcionales, diseñados para acceso asíncrono: un nivel de acceso a archivo al precio de las tarifas de almacenamiento de S3 Glacier Flexible Retrieval y un nivel de acceso profundo al precio de las tarifas de almacenamiento de S3 Glacier Deep Archive.

Por un pequeño costo de monitoreo y automatización, S3 Intelligent-Tiering monitorea los patrones de acceso y mueve de manera automática los objetos en los niveles de acceso de baja latencia y alto rendimiento, al igual que en dos niveles de acceso a archivos asíncronos opcionales, en donde los clientes obtienen los costos de almacenamiento más bajos en la nube para datos a los que se puede acceder de manera asíncrona.

S3 Intelligent-Tiering no tiene un tamaño de objeto mínimo facturable, pero los objetos inferiores a 128 KB no son elegibles para la designación automática de niveles. Estos objetos pequeños nunca se monitorean y siempre se cobran de acuerdo con las tarifas de capa de acceso frecuente, sin cargos de monitoreo o automatización. Para cada objeto archivado en el nivel de acceso a archivos o en el nivel de acceso a archivo profundo en S3 Intelligent-Tiering, Amazon S3 utiliza 8 KB de almacenamiento para el nombre del objeto y otros metadatos (facturados a las tarifas del almacenamiento S3 Standard) y 32 KB de almacenamiento para el índice y los metadatos relacionados (facturados a las tarifas de almacenamiento de S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive).

P: ¿Existen cargos para recuperar datos de S3 Intelligent-Tiering?

No. S3 Intelligent-Tiering no tiene cargos de recuperación. S3 Intelligent-Tiering monitorea los patrones de acceso de los datos, y si accede a un objeto en los niveles de archivo asincrónico, de acceso poco frecuente o instantáneo, S3 Intelligent-Tiering mueve ese objeto de manera automática al nivel de acceso frecuente.

P: ¿Cómo activo las capas de acceso a archivos de S3 Intelligent-Tiering?

Puede activar la capa de acceso a archivos y la capa de acceso a archivo profundo mediante la creación de una configuración de nivel de etiqueta de objeto, prefijo o bucket con la API de Amazon S3, la CLI o la consola de administración de S3. Si su aplicación puede acceder a los objetos de forma asincrónica, active solo una o ambas capas de acceso a archivos.

P: ¿Puedo extender el tiempo antes de que los objetos se archiven en la clase de almacenamiento S3 Intelligent-Tiering?

Sí. En la configuración del nivel de bucket, prefijo o etiqueta de objeto, puede extender el tiempo de último acceso para archivar objetos en S3 Intelligent-Tiering. Cuando está habilitada, los objetos a los que no se accedió durante un mínimo de 90 días consecutivos se trasladan de forma predeterminada y automática a la capa de acceso a archivos, omitiendo la capa de acceso instantáneo. Los objetos a los que no se accedió durante un mínimo de 180 días consecutivos se trasladan automáticamente a la capa de acceso a archivo profundo. La configuración predeterminada para los días consecutivos desde el último acceso antes del archivado automático en S3 Intelligent-Tiering se puede extender hasta 2 años.

P: ¿Cómo accedo a un objeto en las capas de acceso a archivos o de acceso a archivo profundo en la clase de almacenamiento S3 Intelligent-Tiering?

Para acceder a un objeto en las capas de acceso a archivos o de acceso a archivo profundo, envíe una solicitud de restauración y el objeto comenzará a trasladarse a la capa de acceso frecuente, todo dentro de la clase de almacenamiento S3 Intelligent-Tiering. Los objetos en la capa de acceso a archivos se trasladan a la capa de acceso frecuente en 3 a 5 horas y los objetos en la capa de acceso a archivo profundo, en 12 horas. Una vez que el objeto está en la capa de acceso frecuente, puede enviar una solicitud GET para recuperarlo.

P: ¿Cómo sé en qué capa de acceso de S3 Intelligent-Tiering se almacenan mis objetos?

Puede usar el inventario de Amazon S3 para informar la capa de acceso de los objetos almacenados en la clase de almacenamiento S3 Intelligent-Tiering. El inventario de Amazon S3 proporciona archivos CSV, ORC o Parquet de salida que muestran los objetos y sus metadatos correspondientes una vez al día o a la semana para un bucket de S3 o un prefijo compartido. También puede enviar una solicitud HEAD de sus objetos para informar las capas de acceso a archivos de S3 Intelligent-Tiering.

P: ¿Puedo transferir objetos del ciclo de vida de S3 Intelligent-Tiering a otra clase de almacenamiento?

Sí. Puede transferir objetos del ciclo de vida desde los niveles de acceso instantáneo, frecuente y poco frecuente de S3 Intelligent-Tiering a S3 One Zone-Infrequent Access, S3 Glacier Flexible-Retrieval y S3 Glacier Deep Archive. Además, puede transferir objetos del ciclo de vida desde los niveles de acceso a archivos opcionales de S3 Intelligent-Tiering a S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive,y desde el nivel de acceso profundo de S3 Intelligent-Tiering a S3 Glacier Deep Archive.

P: ¿S3 Intelligent-Tiering tiene duración mínima?

No. La clase de almacenamiento S3 Intelligent-Tiering no tiene una duración mínima del almacenamiento.

P: ¿S3 Intelligent-Tiering tiene un tamaño de objeto mínimo facturable?

No. La clase de almacenamiento S3 Intelligent-Tiering no tiene un tamaño de objeto mínimo facturable, pero los objetos inferiores a 128 KB no son elegibles para la designación automática de capas. Estos objetos más pequeños siempre se cobrarán de acuerdo con las tarifas de capa de acceso frecuente, sin cargos de monitoreo o automatización. Para cada objeto archivado en el nivel de acceso a archivos o en el nivel de acceso a archivo profundo en S3 Intelligent-Tiering, Amazon S3 utiliza 8 KB de almacenamiento para el nombre del objeto y otros metadatos (facturados a las tarifas del almacenamiento S3 Standard) y 32 KB de almacenamiento para el índice y los metadatos relacionados (facturados a las tarifas de almacenamiento de S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive). Para obtener más detalles, consulte la página de precios de Amazon S3

S3 Standard

P: ¿Qué es S3 Standard?

Amazon S3 Standard ofrece almacenamiento duradero con latencia de acceso en milisegundos y alto rendimiento para datos a los que se accede de manera frecuente, típicamente más de una vez al mes. S3 Standard está diseñado para casos de uso centrados en el rendimiento, como lagos de datos, aplicaciones nativas en la nube, sitios web dinámicos, distribución de contenido, aplicaciones móviles y de juegos, análisis y modelos de machine learning. S3 Standard está diseñado para ofrecer un nivel de disponibilidad de datos del 99,99 % y una durabilidad del 99,999999999 % de los objetos en varias zonas de disponibilidad durante un año determinado. Puede transferir las políticas de ciclo de vida de S3 para controlar exactamente cuándo los datos se transfieren entre S3 Standard y las clases de almacenamiento de menor costo sin cambios de aplicación.

P: ¿Por qué debería usar S3 Standard?

S3 Standard es ideal para datos a los que se accede o modifica con mayor frecuencia que requieren acceso en milisegundos y alto rendimiento. S3 Standard es ideal para datos que se leen o escriben muy frecuentemente, ya que no hay cargos de recuperación. Esto hace que S3 Standard esté optimizado para una amplia variedad de casos de uso, como lagos de datos, aplicaciones nativas en la nube, sitios web dinámicos, distribución de contenido, aplicaciones para dispositivos móviles y videojuegos, y análisis.

S3 Express One Zone

P: ¿Qué es la clase de almacenamiento Amazon S3 Express One Zone?

Amazon S3 Express One Zone es una clase de almacenamiento de Amazon S3 de alto rendimiento y una única zona de disponibilidad creada específicamente para ofrecer acceso a datos constante en milisegundos de un solo dígito para las aplicaciones más sensibles a la latencia de los clientes. Amazon S3 Express One Zone es la clase de almacenamiento de objetos en la nube con la latencia más baja disponible en la actualidad, con una velocidad de acceso a los datos hasta 10 veces más rápida y costos de solicitud un 50 % más bajos que los de Amazon S3 Standard. Con S3 Express One Zone, es posible seleccionar una zona de disponibilidad de AWS específica dentro de una región de AWS para almacenar los datos. Puede optar por ubicar sus recursos de almacenamiento y computación en la misma zona de disponibilidad para optimizar aún más el rendimiento.

P: ¿Por qué elegiría usar la clase de almacenamiento Amazon S3 Express One Zone?

S3 Express One Zone es la clase de almacenamiento ideal para aplicaciones que necesitan la velocidad de acceso a datos más rápida y el máximo rendimiento para aplicaciones sensibles a la latencia. S3 Express One Zone es la mejor clase de almacenamiento para operaciones con un uso intensivo de solicitudes, como el entrenamiento y la inferencia de machine learning (ML), los análisis interactivos y la creación de contenido multimedia.

P: ¿Cómo puedo empezar a utilizar la clase de almacenamiento Amazon S3 Express One Zone?

Para empezar, puede crear un bucket de directorio de S3 en la zona de disponibilidad (AZ) de AWS que elija. Puede optar por ubicar su almacenamiento y recursos informáticos en la misma zona de disponibilidad para optimizar aún más el rendimiento. Los buckets de directorio tienen activado el bloqueo de acceso público a S3 de forma predeterminada. Tras crear el bucket de directorio, puede cargar objetos directamente en la clase de almacenamiento S3 Express One Zone o copiar objetos de las clases de almacenamiento S3 existentes en S3 Express One Zone. También puede importar datos con un solo clic en la consola de administración de AWS a S3 Express One Zone o utilizar las Operaciones por lotes de S3 para copiar un bucket, un prefijo o subconjuntos de datos completos de una clase de almacenamiento de S3 existente en S3 Express One Zone.

P: ¿Cómo puedo importar datos a la clase de almacenamiento Amazon S3 Express One Zone?

Puede importar datos de la misma región de AWS a la clase de almacenamiento S3 Express One Zone a través de la consola de S3 mediante la opción Import (Importar) después de crear un bucket de directorio. La importación simplifica la copia de datos en los buckets del directorio de S3 al permitirle elegir un prefijo o un bucket desde el cual importar los datos sin tener que especificar todos los objetos que se van a copiar de forma individual. Las operaciones por lotes de S3 copian los objetos del prefijo o el bucket de uso general seleccionado y usted puede supervisar el progreso del trabajo de importación y copia a través de la página de detalles del trabajo de operaciones por lotes de S3.

P: ¿En cuántas zonas de disponibilidad se almacenan los objetos de Amazon S3 Express One Zone?

Los objetos de S3 Express One Zone se almacenan en una única zona de disponibilidad (AZ) de AWS de su elección. El almacenamiento de objetos en una zona le permite almacenar los datos de forma local en sus recursos informáticos para minimizar la latencia. Puede acceder a los datos de todas las zonas de disponibilidad, aunque la latencia aumentará.

P: ¿Qué rendimiento ofrece la clase de almacenamiento Amazon S3 Express One Zone?

S3 Express One Zone ofrece una elasticidad de rendimiento similar a la de otras clases de almacenamiento de S3, pero con latencias de solicitud de lectura y escritura de primer byte consistentes de un solo dígito en milisegundos, hasta 10 veces más rápidas que las clases de almacenamiento de S3 existentes. Con S3 Express One Zone, los clientes no necesitan planificar ni aprovisionar capacidad o requisitos de rendimiento por adelantado, y se benefician inmediatamente de que las solicitudes se completen hasta un orden de magnitud más rápido. S3 Express One Zone es ideal para trabajos de análisis en los que la latencia del almacenamiento acelera los tiempos de finalización de los trabajos y reduce el costo total de propiedad (TCO) general. También es ideal para cargas de trabajo interactivas, como la edición de video, en las que los profesionales creativos necesitan un acceso lo más rápido posible a sus datos de S3.

P: ¿Cómo logra la clase de almacenamiento Amazon S3 Express One Zone un alto rendimiento?

S3 Express One Zone utiliza una arquitectura única para optimizar el rendimiento y ofrecer una latencia de solicitudes baja y constante. S3 Express One Zone almacena los datos en el hardware de alto rendimiento y su protocolo de objetos se ha mejorado para simplificar la autenticación y los gastos generales de metadatos. Además, para aumentar aún más la velocidad de acceso y admitir cientos de miles de solicitudes por segundo, los datos se almacenan en un nuevo tipo de bucket: un bucket de directorio de Amazon S3. Con S3 Express One Zone, es posible seleccionar una zona de disponibilidad de AWS específica dentro de una región de AWS para almacenar los datos. Puede optar por ubicar sus recursos de almacenamiento y computación en la misma zona de disponibilidad para optimizar aún más el rendimiento.

P: ¿Qué rendimiento de tasa de solicitudes admite un bucket de directorio de S3?

Cada bucket de directorio de S3 puede admitir cientos de miles de transacciones por segundo (TPS), independientemente de la cantidad de directorios del bucket.

P: ¿Qué ocurre con un bucket de directorio S3 sin actividad de solicitudes durante un largo periodo de tiempo?

Los buckets de directorio S3 que no tengan actividad de solicitudes durante un periodo de al menos 3 meses pasarán a un estado inactivo. Mientras se encuentra en estado inactivo, un bucket de directorio es temporalmente inaccesible para lecturas y escrituras. Los buckets inactivos retienen todo el almacenamiento, los metadatos del objeto y los metadatos del bucket. Las tarifas de almacenamiento existentes se aplicarán a los buckets inactivos. Cuando se solicita acceso a un bucket inactivo, éste pasa a un estado activo, normalmente en unos minutos. Durante este periodo de transición, las lecturas y escrituras devolverán un código de error 503 SlowDown.

P: ¿Cómo debo planificar las necesidades de rendimiento de mi aplicación con la clase de almacenamiento S3 Express One Zone?

S3 Express One Zone ofrece un rendimiento alto y elástico similar al de otras clases de almacenamiento de Amazon S3. S3 Express One Zone está diseñado desde cero para permitir a los clientes individuales aumentar su rendimiento a niveles agregados muy altos. Por ejemplo, las aplicaciones de entrenamiento de modelos de machine learning pueden entrenarse con millones de objetos y petabytes de datos. Puede lograr el máximo rendimiento distribuyendo estas solicitudes en conexiones independientes para maximizar el ancho de banda accesible.

P: ¿En qué se diferencia la autorización de solicitudes de Amazon S3 Express One Zone de otras clases de almacenamiento de S3?

Con S3 Express One Zone, usted autentica y autoriza las solicitudes mediante un nuevo mecanismo basado en sesiones, S3 CreateSession, que está optimizado para ofrecer la latencia más baja. Puede usar CreateSession para solicitar credenciales temporales que proporcionen acceso de baja latencia a su bucket. Estas credenciales temporales se asignan a un bucket de directorio de S3 específico. Para obtener más información sobre este modelo basado en sesiones, consulte la sección crear una sesión en S3 en la guía para desarrolladores.

P: ¿Hasta qué punto es fiable la clase de almacenamiento Amazon S3 Express One Zone?

S3 Express One Zone está diseñado para ofrecer una disponibilidad del 99,95 % en una única zona de disponibilidad, con un SLA de disponibilidad del 99,9 %.

P: ¿Cómo se diseña la clase de almacenamiento de Amazon S3 Express One Zones para ofrecer una disponibilidad del 99,95 %?

Con S3 Express One Zone, los datos se almacenan de forma redundante en varios dispositivos dentro de una única zona de disponibilidad. S3 Express One Zone está diseñado para resistir a errores simultáneos de dispositivos detectando y reparando con rapidez la pérdida de redundancia. Esto significa que S3 Express One Zone cambia de forma automática las solicitudes a los nuevos dispositivos dentro de una zona de disponibilidad si el dispositivo existente detecta un error. Esta redundancia le proporciona acceso ininterrumpido a los datos dentro de una zona de disponibilidad.

P: ¿Cómo se me cobra por Amazon S3 Express One Zone?

No se requieren cargos de configuración ni compromisos para comenzar a utilizar S3 Express One Zone. En S3 Express One Zone se cobra por el almacenamiento y las solicitudes. El volumen de almacenamiento facturado en un mes se acumula en función del almacenamiento total utilizado por hora, medido en gigabytes al mes (GB al mes). También se cobra una tarifa por solicitud de acceso en función del tipo de solicitud, como las PUT y las GET. Pagará una tarifa adicional por GB por la parte del tamaño de la solicitud que supere los 512 KB.

Ejemplo 1:
Supongamos que almacena 10 GB de datos en S3 Express One Zone durante 30 días, lo que supone un total de 1 000 000 de escrituras y 9 000 000 de lecturas, y accede con Athena con un tamaño de solicitud de 10 KB. A continuación, elimina 1 000 000 archivos al cabo de 30 días. Suponiendo que su bucket se encuentra en la región del Este de EE. UU. (Norte de Virginia), los cargos de solicitud se calculan de la siguiente forma:

Cargos por almacenamiento
Uso total de bytes por hora = 10 GB por mes
Costo total de almacenamiento = 10 GB por mes x 0,16 USD = 1,6 USD

Cargos por solicitudes
1 000 000 solicitudes PUT: 1 000 000 solicitudes x 0,0025 USD/1 000 = 2,5 USD
9 000 000 solicitudes GET: 9 000 000 solicitudes x 0,0002 USD/1 000 = 1,8 USD
1 000 000 solicitudes DELETE = 1 000 000 solicitudes x 0,00 USD (gratis) = 0 USD

Cargos totales = 1,6 USD + 2,5 USD + 1,8 USD = 5,9 USD

Ejemplo 2:
Supongamos que almacena 10 TB de datos para el entrenamiento de machine learning para una carga de trabajo de 8 horas todos los días y, a continuación, los elimina. Durante la carga de trabajo de 8 horas, realiza 5 242 880 escrituras y 10 485 760 lecturas para un tamaño de solicitud de 2 MB. Supongamos que lo hace durante 30 días (un mes).

Cargos por almacenamiento
Uso total de bytes por hora = [10 995 116 277 760 bytes x 30 días x (8 horas por día)] = 2 638 827 906 662 400 bytes por hora = 3303,77 GB por mes
Costo total de almacenamiento = 3303,77 GB x 0,16 USD = 528,51 USD

Cargos por solicitudes
5 242 880 solicitudes PUT por día: 5 242 880 solicitudes x 30 x 0,0025 USD/1 000 = 393,22 USD
10 485 760 solicitudes GET por día: 10 485 760 solicitudes x 30 x 0,0002 USD/1 000 = 62,91 USD
5 242 880 solicitudes DELETE por día: 5 242 880 solicitudes x 0,00 USD (gratis) = 0 USD

Se aplicará un cargo por ancho de banda adicional por solicitud a: 1,5 MB (2-0,5 MB) = 0,001465 GB
Cargo por ancho de banda PUT: 0,001465 GB x 5 242 880 x 30 x 0,008 USD = 1843,2 USD
Cargo de ancho de banda GET: 0,001465 GB x 10 485 760 x 30 x 0,015 USD = 691,2 USD

Cargos totales = 528,51 USD + 393,22 USD + 62,91 USD + 1843,2 USD + 691,2 USD = 3519.05 USD

P: ¿Hay cargos adicionales por transferencia de datos por usar la clase de almacenamiento Amazon S3 Express One Zone en la misma región?

Los cargos de solicitud para acceder a los datos en S3 Express One Zone incluyen los costos de transferencia de datos dentro de la red de AWS en una región, y no hay ningún cargo adicional por transferencia de datos por los datos transferidos entre Amazon EC2 (o cualquier servicio de AWS) y S3 Express One Zone dentro de la misma región, por ejemplo, los datos transferidos dentro de la región Este de EE. UU. (Norte de Virginia).

P: ¿Se aplican cargos de red adicionales por el uso de puntos de conexión de VPC de la puerta de enlace con la clase de almacenamiento Amazon S3 Express One Zone?

Los cargos de solicitud para acceder a los datos en S3 Express One Zone incluyen los costos de uso de los puntos de conexión de VPC de la puerta de enlace y no hay ningún cargo adicional por usar los puntos de conexión de la puerta de enlace con S3 Express One Zone.

S3 Standard – Acceso poco frecuente (S3 Standard-IA)

P: ¿Qué es S3 Estándar – Acceso poco frecuente?

Amazon S3 Estándar – Acceso poco frecuente es un tipo de almacenamiento de Amazon S3 para datos a los que se obtiene acceso con poca frecuencia, pero que requieren un acceso rápido cuando es necesario. Este tipo ofrece el alto nivel de durabilidad y procesamiento, y la baja latencia del tipo de almacenamiento Amazon S3 Estándar, con una tarifa de recuperación y un cargo de almacenamiento por GB bajos. La combinación de alto rendimiento y bajos costos convierten a S3 Estándar - Acceso poco frecuente en la opción ideal para el almacenamiento a largo plazo, las copias de seguridad y como almacén de datos para la recuperación ante desastres. El tipo Estándar – Acceso poco frecuente de S3 está definido a nivel de objeto y puede existir en el mismo bucket que los tipos de almacenamiento S3 Estándar y Única zona – Acceso poco frecuente de S3, lo que le permite usar políticas de ciclo de vida de S3 para trasladar automáticamente objetos entre tipos de almacenamiento sin introducir cambios en las aplicaciones.

P: ¿Por qué debería usar Estándar – Acceso poco frecuente de S3?

El tipo S3 Estándar – Acceso poco frecuente es ideal para datos a los que se obtiene acceso con menos frecuencia, pero que requieren un acceso rápido cuando es necesario. S3 Estándar - Acceso poco frecuente es ideal para el almacenamiento de archivos a largo plazo, el almacenamiento de recursos compartidos, la sincronización de carpetas y otros datos caducos.

P: ¿Qué nivel de rendimiento ofrece S3 Standard-IA?

S3 Standard-IA proporciona el mismo nivel de latencia en milisegundos y alto rendimiento que la clase de almacenamiento S3 Standard. 

P: ¿Cómo transfiero mis datos a S3 Standard-IA?

Existen dos maneras para transferir los datos a S3 Estándar – Acceso poco frecuente. Puede utilizar directamente una solicitud PUT en S3 Estándar – Acceso poco frecuente mediante la especificación de STANDARD_IA en el encabezado x-amz-storage-class. También puede definir políticas de ciclo de vida para trasladar objetos desde S3 Standard al tipo de almacenamiento S3 Standard-IA.

P: ¿En qué cargos incurriré si cambio al tipo de almacenamiento de un objeto de S3 Standard-IA a S3 Standard mediante una solicitud COPY?

Incurrirá en cargos por una solicitud COPY de S3 Standard (tipo de almacenamiento de destino) y una recuperación de datos de S3 Standard-IA (tipo de almacenamiento de origen). Para obtener más información, consulte la página de precios de Amazon S3.

P: ¿Existe un cargo mínimo por duración de almacenamiento en S3 Standard-IA?

S3 Standard-IA está diseñado para datos de larga duración que se almacenan durante meses o años y a los que se obtiene acceso con poca frecuencia. En el caso de que se eliminen datos de S3 Standard-IA dentro de un plazo de 30 días, se facturarán los 30 días completos. Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de S3 Standard-IA.

P: ¿Existe un cargo mínimo por almacenamiento de objetos para S3 Standard-IA?

S3 Estándar – Acceso poco frecuente está diseñado para objetos de mayor tamaño y tiene un cargo mínimo de almacenamiento de objetos de 128 KB. Los objetos de tamaño inferior a 128 KB incurrirán en cargos de almacenamiento equivalentes a 128 KB. Por ejemplo, un objeto de 6 KB en S3 Standard-IA incurrirá en los cargos de almacenamiento de S3 Standard-IA para 6 KB, así como un cargo mínimo adicional de tamaño de objeto equivalente a 122 KB de acuerdo con el precio de almacenamiento de S3 Standard-IA. Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de S3 Standard-IA.

P: ¿Puedo transferir objetos desde S3 Standard-IA a las clases de almacenamiento S3 One Zone-IA o S3 Glacier Flexible Retrieval?

Sí. Además de usar políticas de ciclo de vida para migrar objetos desde S3 Standard a S3 Standard-IA, también puede configurar políticas de ciclo de vida para transferir objetos desde S3 Standard-IA a las clases de almacenamiento S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive.

S3 One Zone-Infrequent Access (S3 One Zone-IA)

P: ¿Qué es el tipo de almacenamiento S3 Única zona – Acceso poco frecuente?

S3 Única zona – Acceso poco frecuente es un tipo de almacenamiento de Amazon S3 que los clientes pueden elegir para almacenar objetos en una única zona de disponibilidad. El almacenamiento S3 Única zona – Acceso poco frecuente almacena datos de manera redundante dentro de una única zona de disponibilidad para poder ofrecer un almacenamiento con un costo 20% inferior al almacenamiento S3 Estándar – Acceso poco frecuente con redundancia geográfica, que almacena los datos de manera redundante en varias zonas de disponibilidad que se encuentran geográficamente distanciadas.

S3 Única zona - Acceso poco frecuente ofrece un SLA para una disponibilidad de 99 % y también está diseñado para suministrar una durabilidad con once 9 dentro de la zona de disponibilidad. Sin embargo, los datos de la clase de almacenamiento S3 Única zona - Acceso poco frecuente no son resistentes a la pérdida física de toda una zona de disponibilidad.

El almacenamiento S3 Única zona - Acceso poco frecuente ofrece las mismas características de Amazon S3 que S3 Estándar y S3 Estándar - Acceso poco frecuente, y se puede usar mediante la API, la CLI o la consola de Amazon S3. El tipo de almacenamiento S3 Única zona – Acceso poco frecuente está definido a nivel del objeto y puede existir en el mismo bucket que los tipos S3 Estándar y S3 Estándar – Acceso poco frecuente. Puede usar las políticas de ciclo de vida de S3 para trasladar automáticamente objetos entre tipos de almacenamiento sin realizar cambios en las aplicaciones.

P: ¿Cuáles son los casos de uso más adecuados para el tipo de almacenamiento Única zona – Acceso poco frecuente de S3?

Los clientes pueden usar Única zona - Acceso poco frecuente de S3 para almacenamiento con acceso poco frecuente, como copias de seguridad, copias de recuperación de desastres y otros datos de recreación sencilla.

P. ¿Qué nivel de rendimiento ofrece el almacenamiento S3 Única zona - Acceso poco frecuente?

El tipo de almacenamiento S3 Única zona - Acceso poco frecuente ofrece el mismo rendimiento de latencia y procesamiento que los tipos de almacenamiento S3 Estándar y S3 Estándar - Almacenamiento de acceso poco frecuente.

P: ¿Qué nivel de durabilidad tiene el tipo de almacenamiento S3 Única zona - Acceso poco frecuente?

La clase de almacenamiento S3 One Zone-IA está diseñada para un nivel de durabilidad de 99,999999999 % dentro de una zona de disponibilidad. Sin embargo, los datos de la clase de almacenamiento S3 One Zone-IA no son resistentes a la pérdida de disponibilidad o pérdida física de una zona de disponibilidad. Por el contrario, las clases de almacenamiento S3 Standard, S3 Intelligent-Tiering, S3 Standard-Infrequent Access y S3 Glacier están diseñadas para resistir la pérdida de disponibilidad o la destrucción de una zona de disponibilidad. S3 One Zone-IA puede ofrecer una durabilidad y disponibilidad equivalente o superior a la mayoría de los centros de datos físicos más modernos, al mismo tiempo que suministra el beneficio adicional de la elasticidad de almacenamiento y el conjunto de características de Amazon S3.

P: ¿Una "zona" de S3 One Zone-IA es lo mismo que una zona de disponibilidad de AWS?

Sí. Cada región de AWS es un área geográfica independiente. Cada región tiene varias ubicaciones aisladas conocidas como zonas de disponibilidad. La clase de almacenamiento Amazon S3 One Zone-IA utiliza una zona de disponibilidad de AWS específica dentro de la región.

P: ¿De qué nivel de protección de recuperación de desastres me privo si utilizo S3 One Zone-IA?

Cada zona de disponibilidad usa redes y capacidad redundantes. Dentro de una región de AWS, las zonas de disponibilidad se encuentran en diferentes terrenos inundables, zonas de fallas sísmicas y separadas geográficamente a los fines de brindar protección contra incendios. El tipo de almacenamiento S3 Estándar y S3 Estándar - Acceso poco frecuente ofrecen protección contra estos tipos de desastres mediante el almacenamiento de sus datos de manera redundante en varias zonas de disponibilidad. S3 Única zona - Acceso poco frecuente ofrece protección contra los fallos de los equipos dentro de una zona de disponibilidad, pero los datos no son resistentes a la pérdida física de la zona de disponibilidad debido a desastres, como terremotos e inundaciones. Mediante el uso de las opciones S3 One Zone-IA, S3 Standard y S3 Standard-IA, puede elegir el tipo de almacenamiento que mejor se adapte a las necesidades de durabilidad y disponibilidad de su almacenamiento.

Clase de almacenamiento Amazon S3 Glacier Instant Retrieval

P: ¿Qué es la clase de almacenamiento S3 Glacier Instant Retrieval?

La clase de almacenamiento S3 Glacier Instant Retrieval ofrece el almacenamiento de menor costo para los datos de larga duración a los que rara vez se accede y que requieren una recuperación en milisegundos. S3 Glacier Instant Retrieval ofrece el acceso más rápido al almacenamiento de archivos, con el mismo rendimiento y acceso en milisegundos que las clases de almacenamiento S3 Standard y S3 Standard-IA. S3 Glacier Instant Retrieval está diseñado para brindar una durabilidad de los datos del 99,999999999 % (11 nueves) y una disponibilidad del 99,9 % mediante el almacenamiento redundante de los datos en un mínimo de tres zonas de disponibilidad de AWS separadas físicamente.

P: ¿Por qué debería utilizar S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval es ideal para datos a los que se accede de manera poco frecuente (una vez cada tres meses) y requieren tiempos de recuperación de milisegundos. Es la clase de almacenamiento ideal si desea la misma latencia baja y alto rendimiento que S3 Standard-IA, pero desea almacenar datos a los que se accede de manera menos frecuente que S3 Standard-IA, con un precio de almacenamiento más bajo y costos de acceso a datos ligeramente más altos.

P: ¿Cuál es la disponibilidad y durabilidad de S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval está diseñado para tener una durabilidad del 99,999999999 % (11 nueves) y disponibilidad del 99,9 %, lo mismo que S3 Standard-IA, y posee un acuerdo de nivel de servicios que provee créditos de servicio si la disponibilidad es menor al 99 % en cualquier ciclo de facturación.

P: ¿Qué rendimiento ofrece S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval proporciona la misma latencia en milisegundos y alto rendimiento que las clases de almacenamiento S3 Standard y S3 Standard-IA. A diferencia de las clases de almacenamiento S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive, las cuales están diseñadas para acceso asíncrono, no es necesario emitir una solicitud de restauración antes de acceder a un objeto almacenado en S3 Glacier Instant Retrieval.

P: ¿Cómo transfiero mis datos a S3 Glacier Instant Retrieval?

Existen dos formas de transferir datos a S3 Glacier Instant Retrieval. Puede colocar PUT directamente en S3 Glacier Instant Retrieval con la especificación GLACIER_IR en el encabezado x-amz-storage-class o establecer políticas de ciclo de vida de S3 para transferir objetos de S3 Standard o S3 Standard-IA a S3 Glacier Instant Retrieval.

P: ¿Existe un cargo mínimo por duración de almacenamiento en Amazon S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval está diseñado para datos de larga duración que se almacenan durante meses o años, pero a los que se rara vez se accede. Los objetos que se archivan en S3 Glacier Instant Retrieval tienen un mínimo de 90 días de almacenamiento y, para los objetos que se eliminen, sobrescriban o transfieran antes de 90 días, se aplicará un cargo prorrateado equivalente al cargo de almacenamiento por los días restantes. Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de Amazon S3 Glacier Instant Retrieval.

P: ¿Existe un cargo mínimo por tamaño de objeto en Amazon S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval está diseñado para objetos de mayor tamaño y tiene un cargo mínimo de almacenamiento de objetos de 128 KB. Los objetos de tamaño inferior a 128 KB incurrirán en cargos de almacenamiento equivalentes a 128 KB. Por ejemplo, un objeto de 6 KB en S3 Glacier Instant Retrieval incurrirá en los cargos de almacenamiento de S3 Glacier Instant Retrieval para 6 KB, así como un cargo mínimo adicional de tamaño de objeto equivalente a 122 KB de acuerdo con el precio de almacenamiento de S3 Glacier Instant Retrieval. Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de Amazon S3 Glacier Instant Retrieval.

P: ¿Qué cargos realiza S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval cobra por almacenamiento mensual, solicitudes basadas en el tipo de solicitud y recuperación de datos. El volumen de almacenamiento facturado en un mes corresponde a la media del almacenamiento utilizado durante todo el mes, medido en gigabyte/mes (GB/mes). Se le cobrarán las solicitudes según el tipo de solicitud, como PUT, COPY y GET. También pagará un cargo por GB por cada gigabyte de datos devueltos. 

Clase de almacenamiento Amazon S3 Glacier Flexible Retrieval

P: ¿Qué es la clase de almacenamiento S3 Glacier Flexible Retrieval?

La clase de almacenamiento S3 Glacier Flexible Retrieval ofrece almacenamiento a bajo costo, hasta un 10 % menor (que S3 Glacier Instant Retrieval), para los datos de archivo a los que se accede 1 o 2 veces al año y se recuperan de manera asíncrona, con recuperaciones masivas gratuitas. Para los datos de archivo que no requieren acceso inmediato pero necesitan la flexibilidad de recuperar grandes conjuntos de datos sin costo alguno, como los casos de uso de copias de seguridad o recuperación de desastres, S3 Glacier Flexible Retrieval es la clase de almacenamiento ideal. S3 Glacier Flexible Retrieval ofrece las opciones de recuperación más flexibles que equilibran el costo con tiempos de acceso que varían de minutos a horas y con recuperaciones masivas gratuitas. Esta es una solución ideal para las necesidades de copia de seguridad, recuperación de desastres, almacenamiento de datos fuera del sitio y para cuando algunos datos deben recuperarse ocasionalmente en minutos y no desea preocuparse por los costos. S3 Glacier Flexible Retrieval está diseñado para brindar una durabilidad de los datos del 99,999999999 % (11 nueves) y una disponibilidad del 99,99 % mediante el almacenamiento redundante de los datos en varias zonas de disponibilidad de AWS separadas físicamente en un año determinado.

P: ¿Por qué debería elegir la clase de almacenamiento S3 Glacier Flexible Retrieval?

Para los datos de archivo que no requieren acceso inmediato pero necesitan la flexibilidad de recuperar grandes conjuntos de datos sin costo alguno, como los casos de uso de copias de seguridad o recuperación de desastres, S3 Glacier Flexible Retrieval es la clase de almacenamiento ideal. S3 Glacier Flexible Retrieval ofrece las opciones de recuperación más flexibles que equilibran el costo con tiempos de acceso que varían de minutos a horas y con recuperaciones masivas gratuitas. Esta es una solución ideal para las necesidades de copia de seguridad, recuperación de desastres, almacenamiento de datos fuera del sitio y para cuando algunos datos deben recuperarse ocasionalmente en minutos y no desea preocuparse por los costos que implica recuperar datos.

P: ¿Cómo ingreso los datos a S3 Glacier Flexible Retrieval?

Existen dos formas de ingresar datos a S3 Glacier Flexible Retrieval. Puede utilizar directamente una solicitud PUT en S3 Glacier Flexible Retrieval al especificar GLACIER en el encabezado x-amz-storage-class. Puede utilizar las reglas del ciclo de vida de S3 para hacer la transición de objetos desde cualquiera de las clases de almacenamiento de S3 para los datos activos (S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 One Zone-IA y S3 Glacier Instant Retrieval) a Amazon S3 Glacier Flexible Retrieval en función de la antigüedad del objeto. Utilice Amazon S3 Management Console, los SDK de AWS o las API de Amazon S3 para utilizar directamente una solicitud PUT en Amazon S3 Glacier o definir reglas para el archivado.

Nota: S3 Glacier Flexible Retrieval también está disponible a través de las API originales directas de Glacier y a través de la consola de administración de Amazon S3 Glacier. Para una experiencia mejorada con acceso a todo el conjunto de características de S3, que incluye la administración del ciclo de vida, la replicación de S3, S3 Storage Lens y más, recomendamos utilizar las API de S3 y S3 Management Console para utilizar las características de S3 Glacier.

P: ¿Cómo puedo recuperar objetos que estén archivados en S3 Glacier Flexible Retrieval? ¿Se me notificará cuando el objeto se haya recuperado?

Se puede acceder a los objetos archivados en S3 Glacier Flexible Retrieval de manera asíncrona. Para recuperar datos almacenados en S3 Glacier Flexible Retrieval, inicie una solicitud de recuperación mediante las API de Simple Storage Service (Amazon S3) o la consola de Amazon S3. La solicitud de recuperación crea una copia temporal de sus datos en la clase de almacenamiento de S3 Standard al mismo tiempo que deja los datos archivados intactos en S3 Glacier Flexible Retrieval. Puede especificar la cantidad de tiempo en días durante la cual se almacenará la copia temporal en Simple Storage Service (Amazon S3). A continuación, puede obtener acceso a su copia temporal desde S3 a través de una solicitud GET de Amazon S3 en el objeto archivado. En las regiones de AWS en las que el almacenamiento de redundancia reducida tiene un precio más bajo que S3 Standard, los datos disponibles temporalmente se facturan como almacenamiento de redundancia reducida. Sin embargo, la clase de almacenamiento de facturación de almacenamiento de redundancia reducida no refleja cómo se almacenan los datos.

Con las notificaciones de recuperación, ahora se le notificará con una notificación de evento de S3 cuando un objeto se haya recuperado exitosamente de S3 Glacier Flexible Retrieval y la copia temporal esté disponible. El propietario del bucket (u otros, que estén autorizados por una política de IAM) pueden encargarse de que las notificaciones se envíen a Amazon Simple Queue Service (Amazon SQS) o a Amazon Simple Notification Service (SNS). Las notificaciones también se pueden enviar a AWS Lambda para su procesamiento mediante una función de Lambda.

P: ¿Cuánto tiempo se tarda en restaurar los objetos archivados en Amazon S3 Glacier Flexible Retrieval?

Al procesar un trabajo de recuperación, Amazon S3 recupera primero los datos solicitados desde S3 Glacier Flexible Retrieval y a continuación crea una copia temporal de los datos solicitados en Amazon S3. Esto suele tardar unos minutos. El tiempo de acceso de la solicitud depende de la opción de recuperación que elija: recuperaciones aceleradas, estándar o en masa. A excepción de los archivos de mayor tamaño (más de 250 MB), los datos accedidos mediante las recuperaciones Expedited suelen estar disponibles entre 1 a 5 minutos. Los objetos recuperados a través de la opción de recuperaciones estándar suelen estar disponibles entre 3 a 5 horas. Las recuperaciones estándar suelen comenzar en cuestión de minutos cuando se inician con las operaciones por lotes de S3. Las recuperaciones masivas suelen completarse dentro de un periodo de entre 5 a 12 horas y son gratuitas. Para obtener más información sobre las opciones de recuperación de S3 Glacier Flexible Retrieval, consulte la sección restauración de un objeto archivado en la guía del usuario de S3.

Con las unidades de capacidad aprovisionada de S3 Glacier, puede pagar una cuota inicial fija durante un mes determinado para garantizar la disponibilidad de la capacidad de recuperación de las recuperaciones aceleradas de S3 Glacier Flexible Retrieval. Puede adquirir dos unidades de capacidad aprovisionada al mes para aumentar la cantidad de datos que puede recuperar. Cada unidad de capacidad garantiza que se puedan realizar al menos tres recuperaciones aceleradas cada cinco minutos y proporciona un nivel de rendimiento de recuperación de hasta 150 MB/s. Si la carga de trabajo requiere un acceso altamente confiable y predecible a un subconjunto de sus datos en cuestión de minutos, debería adquirir capacidad de recuperación aprovisionada. Si no se dispone de capacidad aprovisionada, es posible que no se acepten las recuperaciones aceleradas durante periodos de alta demanda. Si necesita acceder a recuperaciones aceleradas en cualquier circunstancia, le recomendamos que adquiera capacidad de recuperación aprovisionada.

Puede adquirir capacidad aprovisionada mediante la consola de Amazon S3, la API REST de compra de capacidad aprovisionada, los SDK de AWS o AWS CLI. Una unidad de capacidad aprovisionada tiene duración de un mes a partir de la fecha y hora de compra, que es la fecha de inicio. La unidad vence en la fecha de vencimiento, que es exactamente un mes después de la fecha de inicio, al segundo más cercano. Para obtener más información sobre los precios de la capacidad aprovisionada, consulte los precios de Amazon S3.

P: ¿Cómo se calcula el costo de almacenamiento de los objetos de Amazon S3 archivados en S3 Glacier Flexible Retrieval?

El volumen de almacenamiento facturado en un mes corresponde a la media del almacenamiento utilizado durante todo el mes, medido en gigabyte/mes (GB/mes). Amazon S3 calcula el tamaño del objeto al sumar el volumen de datos almacenados, más 32 KB adicionales de datos de S3 Glacier, más 8 KB adicionales de datos de la clase de almacenamiento Amazon S3 Standard. S3 Glacier Flexible Retrieval requiere 32 KB adicionales de datos por objeto para el índice y los metadatos de S3 Glacier, con el fin de que pueda identificar y recuperar sus datos. Amazon S3 requiere 8 KB para almacenar y mantener el nombre definido por el usuario y los metadatos de los objetos archivados en S3 Glacier Flexible Retrieval. Esto le permite obtener una lista en tiempo real de todos sus objetos de Amazon S3, incluidos los almacenados mediante S3 Glacier Flexible Retrieval, con la API LIST de Amazon S3 o el informe de inventario de S3.

Por ejemplo, si ha archivado 100 000 objetos de 1 GB cada uno, su almacenamiento facturable será de:
1,000032 gigabytes para cada objeto x 100 000 objetos = 100 003,2 gigabytes de almacenamiento de S3 Glacier.
0,000008 gigabytes para cada objeto x 100 000 objetos = 0,8 gigabytes de almacenamiento de S3 Standard.

La cuota se calcula en función de las tarifas vigentes para la región de AWS según la página de precios de Amazon S3. Para más ejemplos de los precios de Amazon S3, consulte las preguntas frecuentes sobre la facturación de S3 o utilice la calculadora de precios de AWS.

P: ¿Hay cargos mínimos por almacenamiento de objetos y una duración mínima del almacenamiento para Amazon S3 Glacier Flexible Retrieval?

Los objetos archivados en S3 Glacier Flexible Retrieval tienen un mínimo de 90 días de almacenamiento. Si un objeto se elimina, sobrescribe o transfiere antes de los 90 días, se cobrará una tarifa prorrateada igual a la tarifa de almacenamiento de los días restantes.

S3 Glacier Flexible Retrieval también requiere 40 KB de metadatos adicionales para cada objeto archivado. Esto incluye 32 KB de metadatos cargados a la tarifa de S3 Glacier Flexible Retrieval, necesarios para identificar y recuperar sus datos. Y 8 KB de datos adicionales cargados a la tarifa S3 Standard, necesarios para mantener el nombre definido por el usuario y los metadatos de los objetos archivados en S3 Glacier Flexible Retrieval. Esto permite que obtenga una lista en tiempo real de todos los objetos de S3 que utilizan la API LIST de S3 o el informe de S3 Inventory. Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de Amazon S3 Glacier Flexible Retrieval. 

P: ¿Cuánto cuesta recuperar datos de Amazon S3 Glacier Flexible Retrieval?

Hay tres maneras de recuperar datos de S3 Glacier Flexible Retrieval: recuperaciones aceleradas, estándar y masivas. Las recuperaciones aceleradas y estándar tienen una tarifa de recuperación por GB y por solicitud (es decir, paga por solicitudes hechas en relación con sus objetos de Amazon S3). Las recuperaciones masivas de S3 Glacier Flexible Retrieval son gratuitas. Para obtener información detallada sobre los precios de S3 Glacier por región de AWS, visite la página de precios de Amazon S3.

P: ¿Amazon S3 ofrece capacidades para archivar objetos en clases de almacenamiento de menor costo?

Las clases de almacenamiento de Amazon S3 Glacier se crearon específicamente para el archivado de datos y le ofrecen el mayor rendimiento, la mayor flexibilidad de recuperación y el menor costo de almacenamiento de archivos en la nube. Ahora puede elegir entre tres clases de almacenamiento de archivos optimizadas para diferentes patrones de acceso y duración del almacenamiento. Para los datos de archivado que necesitan un acceso inmediato, como las imágenes médicas, los activos de los medios de comunicación o los datos genómicos, elija la clase de almacenamiento S3 Glacier Instant Retrieval, una clase de almacenamiento de archivos que ofrece el almacenamiento de menor costo con una recuperación de tan solo milisegundos. Para los datos de archivado que no requieren acceso inmediato, pero necesitan la flexibilidad de recuperar grandes conjuntos de datos sin costo alguno, como los casos de uso de copias de seguridad o recuperación de desastres, elija S3 Glacier Flexible Retrieval, con recuperación en minutos o recuperaciones masivas gratuitas de 5 a 12 horas. Para ahorrar aún más en el almacenamiento de archivos de larga duración, como los archivos de conformidad y la preservación de contenido multimedia digital, elija S3 Glacier Deep Archive, el almacenamiento de menor costo en la nube con una recuperación de datos de 12 horas.

P: ¿Qué infraestructura de backend admite las clases de almacenamiento S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive?

Preferimos enfocarnos en los resultados que los clientes obtienen en rendimiento, durabilidad, disponibilidad y seguridad. Sin embargo, nuestros clientes nos hacen esta pregunta con frecuencia. Utilizamos una serie de tecnologías diferentes que nos permiten ofrecer a nuestros clientes los precios que tenemos. Nuestros servicios se desarrollan utilizando tecnologías comunes de almacenamiento de datos específicamente ensambladas en sistemas con diseños específicos y con un costo optimizado utilizando software desarrollado por AWS. Las clases de almacenamiento S3 Glacier se benefician de nuestra capacidad para optimizar la secuencia de entradas y salidas con el fin de maximizar la eficiencia cuando se accede al almacenamiento subyacente.

Amazon S3 Glacier Deep Archive

P: ¿Qué es la clase de almacenamiento de Amazon S3 Glacier Deep Archive?

S3 Glacier Deep Archive es una clase de almacenamiento de Amazon S3 que permite guardar objetos de manera segura y duradera para lograr la retención a largo plazo de datos a los cuales se accede una o dos veces al año. A partir de tan solo 0,00099 USD por GB al mes (menos de la décima parte de un centavo o aproximadamente 1 USD por TB al mes), S3 Glacier Deep Archive ofrece el almacenamiento en la nube de menor costo, a precios más bajos que el almacenamiento y el mantenimiento de datos en bibliotecas de cintas magnéticas locales o el archivo de datos fuera de las instalaciones.

P: ¿Cuáles son los casos de uso más adecuados para la clase de almacenamiento S3 Glacier Deep Archive?

S3 Glacier Deep Archive es un tipo de almacenamiento ideal para proporcionar protección sin conexión de los recursos de datos más importantes de su empresa o cuando se requiere retención de datos a largo plazo por requisitos contractuales, de la política de la empresa o de conformidad normativa. Los clientes descubren que S3 Glacier Deep Archive es una opción interesante para proteger la propiedad intelectual principal, los registros financieros y médicos, los resultados de las investigaciones, los documentos legales, los estudios de exploraciones sísmicas y las copias de seguridad a largo plazo, especialmente en industrias muy reguladas, por ejemplo, servicios financieros, atención sanitaria, petróleo y gas y sectores públicos. Además, hay organizaciones, como las empresas de medios y entretenimiento, que desean mantener una copia de seguridad de la propiedad intelectual principal. Con frecuencia, los clientes que usan S3 Glacier Deep Archive pueden reducir o discontinuar el uso de bibliotecas de cintas magnéticas locales y servicios de archivo de cintas fuera de las instalaciones.

P: ¿En qué se diferencia la clase de almacenamiento S3 Glacier Deep Archive de S3 Glacier Instant Retrieval y S3 Glacier Flexible Retrieval?

S3 Glacier Deep Archive amplía nuestra oferta de archivado de datos, lo que le permite seleccionar un tipo de almacenamiento óptimo en función de los costos de almacenamiento y recuperación y de los tiempos de recuperación. Elija la clase de almacenamiento S3 Glacier Instant Retrieval cuando necesite acceso en milisegundos a datos de archivos de bajo costo. Para los datos de archivado que no requieren acceso inmediato, pero necesitan la flexibilidad de recuperar grandes conjuntos de datos sin costo alguno, como los casos de uso de copias de seguridad o recuperación de desastres, elija S3 Glacier Flexible Retrieval, con recuperación en minutos o recuperaciones masivas gratuitas de 5 a 12 horas. Por el contrario, S3 Glacier Deep Archive está diseñado para los datos más inactivos a los que se accede muy raramente pero que de todas maneras requieren almacenamiento duradero a largo plazo. S3 Glacier Deep Archive es hasta un 75 % más barato que S3 Glacier Flexible Retrieval y proporciona recuperación en 12 horas utilizando el nivel de recuperación Standard. Las recuperaciones estándar suelen comenzar en un plazo de 9 horas cuando se inician con las operaciones por lotes de S3. También puede reducir los costos de recuperación si selecciona la recuperación masiva, capaz de devolver datos en un plazo de 48 horas.

P: ¿Cómo puedo comenzar a utilizar S3 Glacier Deep Archive?

La forma más fácil de almacenar datos en S3 Glacier Deep Archive consiste en usar la API de S3 para cargar los datos directamente. Simplemente especifique “S3 Glacier Deep Archive” como el tipo de almacenamiento. Puede hacer esto mediante el uso de la consola de administración de AWS, la API REST de S3, los SDK de AWS o la interfaz de línea de comandos de AWS.

También puede comenzar a usar S3 Glacier Deep Archive mediante la creación de políticas para migrar datos a través de S3 Lifecycle, que brinda la capacidad de definir el ciclo de vida de su objeto y reducir el costo de almacenamiento. Estas políticas se pueden definir para migrar objetos a S3 Glacier Deep Archive en función de su antigüedad. Puede especificar la política para un bucket de S3 o para prefijos específicos. Las transiciones de ciclo de vida se facturan al precio de carga de S3 Glacier Deep Archive.

Tape Gateway, una característica de AWS Storage Gateway para bibliotecas de cintas virtuales basadas en la nube, ahora se integra con S3 Glacier Deep Archive, lo que le permite almacenar sus archivos y copias de seguridad a largo plazo basadas en cintas virtuales en S3 Glacier Deep Archive, proporcionando el almacenamiento más económico para estos datos en la nube. Para comenzar, cree una nueva cinta virtual con la consola o la API de AWS Storage Gateway y configure el destino de almacenamiento de archivo en S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. Cuando su aplicación de copia de seguridad expulse la cinta, esta se archivará en el destino de almacenamiento seleccionado.

P: ¿De qué manera me conviene realizar la migración de datos desde mis archivos de cintas existentes a S3 Glacier Deep Archive?

Existen varias maneras de migrar datos desde archivos de cintas existentes a S3 Glacier Deep Archive. Puede usar AWS Tape Gateway para migrar datos con aplicaciones de copia de seguridad existentes a través de la interfaz de biblioteca de cintas virtuales (VTL). Esta interfaz presenta cintas virtuales en la aplicación de copia de seguridad. Estas se pueden usar inmediatamente para almacenar datos en Amazon S3, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive.

También puede usar AWS Snowball o Snowmobile para migrar datos. Snowball y Snowmobile aceleran la transferencia de datos, desde terabytes a petabytes, hacia y desde AWS mediante dispositivos de almacenamiento físico para el transporte. Snowball y Snowmobile ayudan a eliminar los desafíos que pueden surgir con las transferencias de datos a gran escala, incluidos los costos de red elevados, los tiempos de transferencia prolongados y los riesgos de seguridad.

Por último, puede utilizar AWS Direct Connect para establecer conexiones de red dedicadas desde las instalaciones de su empresa a AWS. En muchos casos, Direct Connect puede reducir los costos de red, mejorar el rendimiento del ancho de banda y proporcionar una experiencia de red más estable que las conexiones basadas en Internet.

P: ¿Cómo puedo recuperar mis objetos almacenados en S3 Glacier Deep Archive?

Para recuperar los datos almacenados en S3 Glacier Deep Archive, inicie una solicitud “Restaurar” usando las API o la consola de administración de Amazon S3. La solicitud de restauración crea un texto temporal de los datos en el tipo de almacenamiento S3 Standard al mismo tiempo que deja los datos archivados intactos en S3 Glacier Deep Archive. Puede especificar durante cuánto tiempo (en días) se almacenará el texto temporal en S3. A continuación, puede obtener acceso a su copia temporal desde S3 a través de una solicitud GET de Amazon S3 en el objeto archivado.

Al restaurar un objeto archivado, puede especificar una de las siguientes opciones en el elemento de nivel del cuerpo de la solicitud: Standard es el nivel predeterminado y le permite acceder a cualquiera de los objetos archivados en un plazo de 12 horas, y las recuperaciones suelen comenzar en un plazo de 9 horas cuando se inician mediante operaciones por lotes de S3. La recuperación masiva de datos permite recuperar grandes cantidades de datos, incluso petabytes de datos, de forma económica y, por lo general, se completa en 48 horas.

P: ¿Cómo se cobra el uso de S3 Glacier Deep Archive?

El precio del almacenamiento S3 Glacier Deep Archive está basado en la cantidad de datos que almacena en GB, la cantidad de solicitudes de transición de ciclo de vida/PUT, las recuperaciones en GB y la cantidad de solicitudes de restauración. El modelo de precios es similar a S3 Glacier Flexible Retrieval. Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de S3 Glacier Deep Archive.

P: ¿Cómo aparecerá el uso de S3 Glacier Deep Archive en mi factura de AWS y en la herramienta de administración de costos de AWS?

El uso y el costo de S3 Glacier Deep Archive aparecerá como un concepto de servicio independiente en su factura mensual de AWS, separado del uso y los costos de su Amazon S3. No obstante, si usa la herramienta Administración de costos de AWS, el uso y el costo de S3 Glacier Deep Archive estarán incluidos debajo del uso y el costo de Amazon S3 en sus informes detallados de gastos mensuales y no aparecerán detallados como un concepto de servicio independiente.

P: ¿Hay cargos mínimos por almacenamiento de objetos y una duración mínima para S3 Glacier Deep Archive?

Los objetos que se archivan en S3 Glacier Deep Archive tienen un mínimo de 180 días de almacenamiento. Si un objeto se elimina, sobrescribe o transfiere antes de los 180 días, se cobrará una tarifa prorrateada igual a la tarifa de almacenamiento de los días restantes.

S3 Glacier Deep Archive también requiere 40 KB de metadatos adicionales para cada objeto archivado. Esto incluye 32 KB de metadatos cargados a la tarifa de S3 Glacier Deep Archive, necesarios para identificar y recuperar sus datos. Y 8 KB de datos adicionales cargados a la tarifa S3 Standard, necesarios para mantener el nombre definido por el usuario y los metadatos de los objetos archivados en S3 Glacier Deep Archive. Esto permite que obtenga una lista en tiempo real de todos los objetos de S3 que utilizan la API LIST de S3 o el informe de S3 Inventory. Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de S3 Glacier Deep Archive.

P: ¿Cómo se integra S3 Glacier Deep Archive a otros servicios de AWS?

S3 Glacier Deep Archive está integrado a las características de Amazon S3, entre ellas, el etiquetado de objetos de S3, las políticas de ciclo de vida de S3, el bloqueo de objetos de S3 y la replicación de S3. Con las características de administración de almacenamiento de S3, puede utilizar un solo bucket de Amazon S3 para almacenar una combinación de datos de S3 Glacier Deep Archive, S3 Standard, S3 Standard-IA, S3 One Zone-IA y S3 Glacier Flexible Retrieval. Esto permite que los administradores de almacenamiento tomen decisiones en función de la naturaleza de los datos y los patrones de acceso a datos. Los clientes pueden usar las políticas de ciclo de vida de Amazon S3, como la antigüedad de los datos, para migrar automáticamente los datos a tipos de almacenamiento más económicos o las políticas de replicación entre regiones o dentro de las mismas regiones de S3 para replicar datos en la misma región o en una diferente.

El servicio AWS Storage Gateway ahora integra Tape Gateway con el tipo de almacenamiento S3 Glacier Deep Archive, lo que le permite almacenar cintas virtuales en el tipo de almacenamiento de Amazon S3 de menor costo, con lo que se reduce en un 75 % el costo mensual del almacenamiento de datos a largo plazo en la nube. Con esta característica, Tape Gateway admite el archivo de sus nuevas cintas virtuales directamente en S3 Glacier Flexible Retrieval y en S3 Glacier Deep Archive, lo que lo ayuda a cumplir con sus requisitos de copia de seguridad, archivo y recuperación. Tape Gateway lo ayuda a trasladar las copias de seguridad basadas en cintas a AWS sin realizar cambios en los flujos de trabajo de las copias de seguridad existentes. Tape Gateway admite la mayoría de las principales aplicaciones de copia de seguridad como Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect (en el SO Windows) y Microsoft Data Protection Manager.

S3 en Outposts

P: ¿Qué es Amazon S3 en Outposts?

Amazon S3 en Outposts ofrece almacenamiento de objetos en su entorno en las instalaciones y utiliza las API y las capacidades de S3 que usted usa en AWS en la actualidad. AWS Outposts es un servicio completamente administrado que amplía la infraestructura de AWS, los servicios de AWS, las API y las herramientas a prácticamente cualquier centro de datos, espacio de coubicación o en las instalaciones. Con S3 en Outposts, puede procesar y almacenar de manera segura datos de clientes generados en las instalaciones antes de moverlos a una región de AWS, acceder a datos en forma local para aplicaciones que funcionan en las instalaciones o almacenar datos en su Outpost para empresas en ubicaciones con requisitos de residencia de datos o empresas en sectores regulados. Para obtener más información sobre S3 en Outposts, visite la página de información general.
 

Administración de almacenamiento

Etiquetas de objetos de S3

P: ¿Qué son las etiquetas de objetos de S3?

Las etiquetas de objetos de S3 son pares de clave-valor aplicados a objetos de S3 que se pueden crear, actualizar o eliminar en cualquier momento durante el ciclo de vida de un objeto. Con ellas, puede crear políticas de Identity and Access Management (IAM), configurar políticas de ciclo de vida de S3 y personalizar métricas de almacenamiento. Entonces, estas etiquetas de nivel de objeto pueden administrar transferencias entre clases de almacenamiento y hacer que objetos expiren en segundo plano. Puede agregar etiquetas a nuevos objetos cuando los cargue o puede añadirlas a objetos existentes. Pueden añadirse hasta diez etiquetas a cada objeto de S3, ya sea mediante la consola de administración de AWS, la API REST, la CLI de AWS o los SDK de AWS. 

Para obtener más información, visite la página de la guía de usuario de etiquetas de objetos de S3.

P: ¿Por qué debería usar etiquetas de objetos?

Las etiquetas de objetos son una nueva herramienta que puede utilizar para habilitar la administración sencilla de su almacenamiento en S3. Con la habilidad de crear, actualizar y eliminar etiquetas en cualquier momento durante el ciclo de vida de su objeto, su almacenamiento puede adaptarse a las necesidades de su empresa. Estas etiquetas le permiten controlar el acceso a los objetos etiquetados con pares clave-valor específicos y, de esta manera, reforzar la protección de los datos confidenciales para un único grupo o usuario. Las etiquetas de objeto también se pueden utilizar para etiquetar objetos que pertenezcan a un proyecto o unidad de negocio específicos, que se podrían utilizar junto con las políticas de ciclo de vida de S3 para administrar los traslados a otras clases de almacenamiento (S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive) o con la replicación de S3 para replicar datos de forma selectiva entre regiones de AWS.

P: ¿Cómo puedo actualizar las etiquetas de mis objetos?

Puede cambiar las etiquetas de objetos en cualquier momento de la vigencia de un objeto de S3, ya sea mediante la consola de administración de AWS, la API REST, la CLI de AWS o los SDK de AWS. No todos los cambios a etiquetas fuera de la consola de administración de AWS se efectúan en todo el conjunto de etiquetas. Si tiene cinco etiquetas adjuntas a un objeto en particular y desea agregar una sexta, tiene que incluir las cinco etiquetas originales en la solicitud.

P: ¿Cuánto cuestan las etiquetas de objetos?

Los precios de las etiquetas de objetos varían en función de la cantidad de etiquetas y de un costo de solicitud para la incorporación de etiquetas. Las solicitudes asociadas con la incorporación y la actualización de etiquetas de objetos tienen el mismo precio que las solicitudes existentes. Consulte la página de precios de Amazon S3 para obtener más información.

P: ¿Cómo puedo comenzar a usar el análisis de clases de almacenamiento?

Puede usar la consola de administración de AWS o la API de análisis de buckets PUT de S3 para configurar una política de análisis de tipo de almacenamiento a fin de identificar almacenamiento con acceso poco frecuente que se pueda transferir a los tipos de almacenamiento S3 Standard-IA o S3 One Zone-IA o archivarse en los tipos de almacenamiento S3 Glacier. Puede ir a la pestaña “Administración” de la consola de S3 para administrar el análisis de tipo de almacenamiento, S3 Inventory y las métricas de CloudWatch para S3.

S3 Inventory

P: ¿Qué es S3 Inventory?

S3 Inventory ofrece una alternativa programada para la API List sincronizada de Amazon S3. Puede configurar S3 Inventory para que suministre el resultado en un archivo con formato CSV, ORC o archivo Parquet de sus objetos y sus metadatos correspondientes una vez al día o a la semana para un prefijo o bucket de S3. Puede simplificar y agilizar las tareas de big data y los flujos de trabajo empresariales con S3 Inventory. Puede usar S3 Inventory para controlar el estado de replicación y cifrado de sus objetos a fin de cumplir requisitos empresariales, de conformidad y normativos. Más información en la guía de usuario de Amazon S3 Inventory.

P: ¿Cómo puedo comenzar a usar S3 Inventory?

Puede usar la consola de administración de AWS o la API PUT Bucket Inventory Configuration para configurar un informe de inventario diario o semanal de todos los objetos de su bucket de S3 o un subconjunto de los objetos bajo un prefijo compartido. Como parte de la configuración, puede especificar un bucket de S3 de destino para su informe de S3 Inventory, el formato del archivo de salida (CSV, ORC o Parquet) y metadatos de objetos específicos necesarios para su aplicación empresarial, como: nombre de objeto, tamaño, última modificación, tipo de almacenamiento, ID de la versión, marcador de eliminación, alerta de versión no actual, alerta de carga multiparte, estado de replicación o estado de cifrado. Puede usar S3 Inventory como entrada directa en sus tareas de big data o flujos de trabajo de aplicaciones. También puede hacer consultas en S3 Inventory con lenguaje SQL estándar mediante Amazon Athena, Amazon Redshift Spectrum y otras herramientas como Presto, Hive y Spark.

Más información en la guía de usuario de Amazon S3 Inventory.

P: ¿Cómo se cobra el uso de S3 Inventory?

Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de S3 Inventory. Una vez que configure el cifrado con SSE-KMS, se aplicarán cargos de KMS por cifrado. Consulte la página de precios de KMS para obtener más información.

Operaciones por lote en S3

P: ¿Qué son las operaciones por lote de S3?

Las operaciones por lote de S3 forman parte de una característica que puede utilizar para automatizar la ejecución de una única operación (como copiar un objeto o ejecutar una función de AWS Lambda) en distintos objetos. Con las operaciones por lote de S3, mediante algunos clics en la consola de S3 o una sola solicitud de API, puede implementar un cambio en miles de millones de objetos sin tener que escribir códigos de aplicación personalizados ni ejecutar clústeres de informática para aplicaciones de administración de almacenamiento. No solo las operaciones por lote de S3 administran sus operaciones de almacenamiento de muchos objetos, sino que además estas operaciones administran los reintentos, muestran el progreso, envían notificaciones, proporcionan un informe de finalización y envían eventos a AWS CloudTrail para todas las operaciones llevadas a cabo en sus objetos meta. Las operaciones por lote de S3 pueden usarse en la consola de S3 o a través de la CLI y el SDK de AWS. 

Para obtener más información, consulte la página de operaciones por lote de S3 o la guía de usuario.

P: ¿Cómo puedo comenzar a usar las operaciones por lote de S3?

Puede comenzar a usar las operaciones por lote de S3 en la consola de Amazon S3 o usando la CLI o el SDK de AWS para crear su primer trabajo de operaciones por lote de S3. Un trabajo de operaciones por lote de S3 consiste en una lista de objetos meta identificados y el tipo de operación que hay que llevar a cabo (consulte la lista completa de operaciones disponibles). Comience seleccionando un informe de S3 Inventory o suministrando su propia lista personalizada de objetos meta para operaciones por lote de S3 identificados. Un informe de S3 Inventory es un archivo que enumera los objetos almacenados en un bucket o prefijo S3. A continuación, elige entre un conjunto de operaciones admitidas en las operaciones por lote de S3, como reemplazar conjuntos de etiquetas, cambiar ACL, copiar almacenamiento de un bucket a otro o iniciar una restauración de S3 Glacier Flexible Retrieval al tipo de almacenamiento S3 Standard. Puede personalizar sus trabajos de operaciones por lote de S3 con parámetros específicos, por ejemplo, valores de etiquetas, beneficiarios de ACL y duración de la restauración. Para seguir personalizando sus acciones de almacenamiento, puede escribir su propia función de Lambda e invocar ese código mediante las operaciones por lote de S3.

Una vez que cree su trabajo de operaciones por lote de S3, las operaciones por lote de S3 procesarán su lista de objetos y enviarán el trabajo al estado “esperando confirmación” en caso de ser necesario. Después de confirmar los detalles del trabajo, las operaciones por lote de S3 comenzarán a ejecutar la operación especificada. Puede ver el progreso de su trabajo mediante programación o a través de la consola de S3, recibir notificaciones de finalización y revisar un informe de finalización que detalla los cambios realizados en su almacenamiento.

Si le interesa obtener más información sobre las operaciones por lotes de S3, vea los tutoriales en video y lea la documentación.

P: ¿Qué servicios de almacenamiento electrónico de AWS se han evaluado en función de la normativa de servicios financieros?

Para los clientes de la industria de servicios financieros, el bloqueo de objetos de S3 ofrece soporte adicional para agentes de bolsa que deben conservar registros en un formato no borrable y no rescribible para cumplir con los requisitos normativos de la Regla SEC 17a-4(f), Regla 4511 de FINRA o Regulación CFTC 1.31. Puede designar fácilmente el plazo de retención de registros para conservar los archivos reguladores en la forma original durante la duración requerida y también colocar retenciones legales para conservar datos indefinidamente hasta que se elimine la retención.

P: ¿Qué documentación de AWS es compatible con los requisitos de SEC 17a-4(f)(2)(i) y CFTC 1.31(c) para la notificación a mi regulador?

Notifique a su regulador o a la Autoridad Examinadora Designada (DEA) su elección de utilizar Amazon S3 Glacier para el almacenamiento electrónico, además de proporcionarle una copia del documento Cohasset Assessment. En lo referente a estos requisitos, AWS no es un tercero designado (D3P). Asegúrese de seleccionar un D3P e incluir la información en su notificación a la DEA.

Métricas de CloudWatch para S3

P: ¿Cómo puedo comenzar a utilizar las métricas de CloudWatch para S3?

Puede utilizar la consola de administración de AWS para habilitar la generación de métricas de solicitudes de CloudWatch de un minuto para su bucket de S3 o configurar los filtros para las métricas con un prefijo o una etiqueta de objeto, o bien un punto de acceso. También, puede llamar a la API PUT Bucket Metrics de S3 para habilitar y configurar la publicación de métricas de almacenamiento de S3. Las métricas de solicitudes de CloudWatch estarán disponibles en CloudWatch a los 15 minutos de habilitarse. Las métricas de almacenamiento de CloudWatch están habilitadas de forma predeterminada para todos los buckets y se reportan una vez por día. Obtenga más información sobre las métricas de CloudWatch para Amazon S3.

P: ¿Qué alarmas puedo definir en mis métricas de almacenamiento?

Puede utilizar CloudWatch para definir límites en cualquiera de los recuentos, temporizadores o tasas de las métricas de almacenamiento y activar una acción cuando se supere el límite. Por ejemplo, puede configurar un límite en función del porcentaje de respuestas de error 4xx y que, cuando al menos tres puntos de datos superen el límite, se active una alarma de CloudWatch para alertar a un ingeniero de DevOps.

P: ¿Cómo se cobra el uso de las métricas de CloudWatch para S3?

Las métricas de almacenamiento de CloudWatch son gratuitas. Los precios de las métricas de solicitudes de CloudWatch son los mismos que los de las métricas personalizadas de Amazon CloudWatch. Consulte la página de precios de Amazon CloudWatch para obtener información general sobre los precios de las métricas de CloudWatch para S3.

Administración del ciclo de vida de S3

P: ¿Qué es la administración del ciclo de vida de S3?

La administración del ciclo de vida de S3 proporciona la capacidad de definir el ciclo de vida de su objeto con una política predefinida y reducir su costo de almacenamiento. Puede definir una política de transición de ciclo de vida para migrar automáticamente objetos almacenados en el tipo de almacenamiento S3 Estándar a los tipos de almacenamiento S3 Estándar - Acceso poco frecuente, S3 Única zona - Acceso poco frecuente o S3 Glacier en función de la antigüedad de los datos. También puede definir políticas de vencimiento del ciclo de vida para eliminar objetos automáticamente en función de su antigüedad. Puede definir una política para el vencimiento de carga multiparte, que asigna un vencimiento a la carga multiparte incompleta en función de su antigüedad.

Para obtener más información, visite la página de la guía de usuario de ciclo de vida de S3.

P: ¿Cómo configuro una política de administración del ciclo de vida de S3?

Puede configurar y administrar políticas del ciclo de vida en la consola de administración de AWS, la API REST de S3, los SDK de AWS o la interfaz de línea de comandos (CLI) de AWS. Puede especificar la política en el prefijo o en el nivel de bucket.

P: ¿Cómo puedo utilizar la administración del ciclo de vida de Amazon S3 para reducir mis costos de almacenamiento de Amazon S3?

Con las políticas de ciclo de vida de Amazon S3, puede configurar sus objetos para que se migren desde la clase de almacenamiento S3 Standard a S3 Standard-IA o S3 One Zone-IA, o se archiven en los tipos de almacenamiento S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive.

También puede especificar una política de ciclo de vida de S3 para eliminar objetos una vez transcurrido un periodo determinado. Puede utilizar esta automatización basada en políticas para reducir de forma rápida y sencilla los costos de almacenamiento, además de ahorrar tiempo. En cada regla puede especificar un prefijo, un periodo de tiempo, una transición a S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive o un vencimiento. Por ejemplo, podría crear una regla que archivara en S3 Glacier Flexible Retrieval todos los objetos con el prefijo común “logs/” 30 días después de su creación, y que les aplicara un vencimiento de 365 días después de su creación.

También puede crear una regla independiente que solo aplique un vencimiento a todos los objetos con el prefijo “backups/” 90 días después de su creación. Las políticas de ciclo de vida de S3 se aplican a objetos de S3 tanto nuevos como existentes, lo que le ayuda a optimizar el almacenamiento y maximizar el ahorro en costos para todos los datos actuales y los datos nuevos que se ubiquen en S3 sin necesidad de realizar una revisión y migración de datos manual y laboriosa.

Dentro de una regla del ciclo de vida, el campo de prefijo identifica los objetos sujetos a la regla. Para aplicar la regla a un objeto individual, especifique el nombre de clave. Para aplicar la regla a un conjunto de objetos, especifique su prefijo común (por ejemplo, “logs/”). Puede especificar una acción de transición para archivar los objetos y una acción de vencimiento para eliminar los objetos. En cuanto al periodo de tiempo, proporcione la fecha de creación (por ejemplo, 31 de enero de 2015) o el número de días desde la fecha de creación (por ejemplo, 30 días) tras el cual desea que los objetos se archiven o eliminen. Puede crear varias reglas para distintos prefijos.

P: ¿Cuánto cuesta el uso de la administración del ciclo de vida de S3?

No se aplica un costo adicional por configurar y aplicar políticas del ciclo de vida. Una solicitud de transición se cobra por objeto cuando un objeto es apto para la transición según la regla del ciclo de vida. Para obtener más información sobre precios, visite la página de precios de Amazon S3.

P: ¿Por qué debería utilizar una política del ciclo de vida de S3 para el vencimiento de cargas multiparte incompletas?

La política sobre el ciclo de vida de S3 que aplica un vencimiento a las cargas multiparte incompletas le permite ahorrar en costos al limitar el tiempo que se almacenan las cargas multiparte no completadas. Por ejemplo, si su aplicación carga varias partes de objetos multiparte, pero no llega a confirmarlas, se le seguirá cobrando por ese almacenamiento. Esta política puede reducir su factura de almacenamiento de S3 al eliminar automáticamente las cargas multiparte incompletas y el almacenamiento asociado tras un número predefinido de días.

Obtenga más información sobre el uso del ciclo de vida de S3 para definir el vencimiento de cargas multiparte incompletas »

P: ¿Puedo configurar las notificaciones de eventos de Amazon S3 para que envíe notificaciones cuando el ciclo de vida de S3 realice una transición o defina el vencimiento de los objetos?

Sí, puede configurar las notificaciones de eventos de Amazon S3 para que le notifique cuando el ciclo de vida de S3 realice una transición o defina el vencimiento de un objeto. Por ejemplo, puede enviar notificaciones de eventos de S3 a un tema de Amazon SNS, a una cola de Amazon SQS o a una función AWS Lambda cada vez que el ciclo de vida de S3 mueva objetos a una clase de almacenamiento de S3 diferente o defina el vencimiento de un objeto.

Análisis e información de almacenamiento

P: ¿Qué características están disponibles para analizar el uso de almacenamiento en Amazon S3?

S3 Storage Lens brinda visibilidad en toda la organización del uso de almacenamiento de objetos y las tendencias de actividad y realiza recomendaciones prácticas para optimizar costes y aplicar prácticas recomendadas de protección de datos. El análisis de tipo de almacenamiento de S3 permite supervisar los patrones de acceso de objetos para ayudarlo a decidir cuándo transferir los datos al tipo de almacenamiento adecuado para optimizar los costes. Luego puede utilizar esta información para configurar una política de ciclo de vida de S3 que realice la transferencia de datos. Amazon S3 Inventory proporciona a diario o semanalmente un informe de los objetos y sus metadatos correspondientes para un bucket o prefijo de S3. Este informe se puede utilizar para controlar el estado de reproducción y cifrado de los objetos a fin de cumplir requisitos empresariales, de conformidad y normativos.

P: ¿Qué es Amazon S3 Storage Lens?

Amazon S3 Storage Lens brinda visibilidad en toda la organización del uso de almacenamiento de objetos y las tendencias de actividad, al igual que recomendaciones prácticas para optimizar costes y aplicar prácticas recomendadas de protección de datos. Storage Lens ofrece un panel de control interactivo con una vista única del uso de almacenamiento de objetos y la actividad de decenas o cientos de cuentas de su organización, con desgloses para obtener información en varios niveles de agregación. Esto incluye métricas como bytes, recuentos de objetos y solicitudes, así como métricas que detallan la utilización de las características de S3, como recuentos de objetos cifrados y recuentos de reglas de ciclo de vida de S3. S3 Storage Lens brinda también recomendaciones contextuales con las que puede reducir los costes de almacenamiento y aplicar prácticas recomendadas sobre protección de datos en decenas o cientos de cuentas y buckets. Las métricas gratuitas de S3 Storage Lens están habilitadas de manera predeterminada para todos los usuarios de Amazon S3. Si quiere sacar más partido a S3 Storage Lens, puede activar las recomendaciones y métricas avanzadas. Para obtener más información, visite la página de la guía del usuario de Storage Lens de S3.

P: ¿Cómo funciona S3 Storage Lens?

S3 Storage Lens combina el uso del almacenamiento y las métricas de actividad a diario para verlos en el panel interactivo de S3 Storage Lens, o tenerlos disponibles como una exportación de métricas en formato de archivo CSV o Parquet. Se crea de forma automática un panel predeterminado a nivel de cuenta y tiene la opción de crear paneles de control personalizados adicionales. Los paneles de S3 Storage Lens pueden limitarse a su organización de AWS o cuentas específicas, regiones o buckets, o incluso a nivel de prefijos (disponible con las métricas avanzadas de S3 Storage Lens). También puede usar los grupos de S3 Storage Lens para agregar métricas mediante filtros personalizados basados en los metadatos del objeto, como la etiqueta, el tamaño y la antigüedad del objeto. Al configurar su panel de control, puede utilizar la selección de métricas predeterminada o actualizarla para recibir 35 métricas adicionales y agregaciones a nivel de prefijo por un costo adicional. Además, S3 Storage Lens proporciona recomendaciones contextualizadas con métricas de almacenamiento en el panel de control para que pueda tomar medidas que optimicen el almacenamiento en función de las métricas.

P: ¿Cuáles son las preguntas clave que se pueden responder con las métricas de S3 Storage Lens?

El panel de control de S3 Storage Lens está organizado en torno a cuatro tipos principales de preguntas sobre el almacenamiento. En el filtro Summary (Resumen), se pueden explorar preguntas de nivel superior relacionadas con el uso general del almacenamiento y las tendencias de actividad. Por ejemplo, “¿con qué rapidez aumenta el número total de bytes y el número de solicitudes con el tiempo?” En el filtro Cost Optimization (Optimización de costes), puede explorar preguntas relacionadas con la reducción de costes de almacenamiento. Por ejemplo, “¿puedo ahorrar dinero al retener menos versiones no actuales?”. Con los filtros Data Protection (Protección de datos) y Access Management (Administración de acceso), puede responder preguntas sobre cómo proteger los datos. Por ejemplo, “¿mi almacenamiento está protegido contra la eliminación accidental o intencional?”. Por último, con los filtros Performance (Rendimiento) y Events (Eventos), puede explorar formas de mejorar el rendimiento de los flujos de trabajo. Cada una de estas preguntas representa una primera capa de investigación que probablemente conduzca a un análisis detallado.

P: ¿Qué métricas se encuentran disponibles en S3 Storage Lens?

S3 Storage Lens contiene más de 60 métricas agrupadas en métricas gratuitas y métricas avanzadas (disponibles por un coste adicional). Con las métricas gratuitas, recibirá métricas para analizar el uso (basado en una instantánea diaria de sus objetos), las cuales se organizan en categorías de optimización de costes, protección de datos, administración de acceso, rendimiento y eventos. Con las métricas avanzadas, recibirá métricas relacionadas con la actividad (como el recuento de solicitudes), la optimización de costes profunda (como el recuento de reglas de ciclo de vida de S3), la protección de datos adicionales (como el recuento de reglas de reproducción de S3) y los códigos de estado detallado (como errores de autorización 403). Además, también se proporcionan métricas derivadas al combinar cualquier métrica base. Por ejemplo, “Retrieval Rate” (Tasa de recuperación) es una métrica que se calcula al dividir “Bytes Downloaded Count” (Recuento de bytes descargados) por “Total Storage” (Almacenamiento total). Para ver la lista completa de métricas, consulte la documentación de Lente de almacenamiento de S3.

P: ¿Cuáles son las opciones de configuración en mi panel de control?

Un panel de control predeterminado se configura de forma automática para toda la cuenta y tiene la opción de crear paneles personalizados adicionales en el ámbito de la organización de AWS o regiones o buckets específicos dentro de una cuenta. Puede configurar varios paneles de control personalizados, que pueden ser útiles si necesita alguna separación lógica en su análisis de almacenamiento, como segmentar en buckets para representar varios equipos internos. De forma predeterminada, en el panel de control recibirá las métricas gratuitas de S3 Storage Lens, pero tiene la opción de actualizar el servicio para recibir métricas y recomendaciones avanzadas de S3 Storage Lens por un coste adicional. Las métricas avanzadas de S3 Storage Lens tienen 7 opciones distintas: métricas de actividad, métricas avanzadas de optimización de costos, métricas avanzadas de protección de datos, métricas detalladas de códigos de estado, agregación de prefijos, publicación en CloudWatch y agregación de grupos de Storage Lens. Además, para cada panel puede habilitar la exportación de métricas, con opciones adicionales para especificar el bucket de destino y el tipo de cifrado.

P: ¿Cuántos datos históricos hay disponibles en S3 Storage Lens?

Para las métricas que se muestran en el panel interactivo, las métricas gratuitas de Storage Lens retienen 14 días de datos históricos, mientras que las métricas avanzadas de Storage Lens retienen 15 meses de datos históricos por un coste adicional. Para la exportación opcional de métricas, puede configurar cualquier periodo de retención que desee y se aplicarán los cargos de almacenamiento estándar de S3.

P: ¿Cómo se cobra el uso de S3 Storage Lens?

S3 Storage Lens está disponible en dos niveles de métricas. Las métricas gratuitas están habilitadas de forma predeterminada y se encuentran disponibles para todos los clientes de S3 sin coste adicional. Los detalles de precios de recomendaciones y métricas avanzadas de S3 Storage Lens están disponibles en la página de precios de S3. Con las métricas gratuitas de S3 Storage Lens, recibe 28 métricas de uso a nivel de bucket y puede acceder a 14 días de datos históricos en el panel. Con las métricas y recomendaciones avanzadas de S3 Storage Lens recibirá 35 métricas adicionales, agregación a nivel de prefijo, compatibilidad con métricas de CloudWatch, filtrado personalizado de metadatos de objetos con grupos de S3 Storage Lens y podrá acceder a 15 meses de datos históricos en el panel de control.

P: ¿Cuál es la diferencia entre S3 Storage Lens y S3 Inventory?

S3 Inventory proporciona una lista de los objetos y metadatos correspondientes para un bucket de S3 o un prefijo compartido, que se puede utilizar para realizar un análisis a nivel de objeto del almacenamiento. S3 Storage Lens proporciona métricas que pueden agregarse por organización, cuenta, región, clase de almacenamiento, bucket, prefijo y niveles de grupo de S3 Storage Lens, lo que mejora la visibilidad de su almacenamiento en toda la organización.

P: ¿Cuál es la diferencia entre S3 Storage Lens y el análisis de tipo de almacenamiento de S3 (SCA)?

El análisis de tipo de almacenamiento de S3 proporciona recomendaciones para un tipo de almacenamiento óptimo mediante la creación de grupos de edad de objeto basado en los patrones de acceso a nivel de objeto dentro de un bucket/prefijo/ etiqueta individual para los 30 a 90 días anteriores. S3 Storage Lens proporciona recomendaciones diarias a nivel de organización sobre formas de mejorar la rentabilidad y aplicar las prácticas recomendadas de protección de datos, con recomendaciones granulares adicionales por cuenta, región, clase de almacenamiento, bucket, grupo de S3 Storage Lens o prefijo (disponible con las métricas avanzadas de S3 Storage Lens). También puede usar filtros personalizados con los grupos de S3 Storage Lens para visualizar su almacenamiento según la antigüedad del objeto e informar su estrategia de archivado de almacenamiento.

Análisis de tipo de almacenamiento

P: ¿Qué es un análisis de tipo de almacenamiento?

Con el análisis de tipo de almacenamiento, puede analizar los patrones de acceso al almacenamiento a fin de determinar el tipo de almacenamiento óptimo para su almacenamiento. La característica de S3 identifica automáticamente los patrones de uso poco frecuente para ayudarle a transferir almacenamiento a S3 Estándar - Acceso poco frecuente. Puede configurar una política de análisis de tipo de almacenamiento para monitorear un bucket entero, un prefijo o una etiqueta de objeto. Una vez que se observe un patrón de acceso poco frecuente, podrá crear con facilidad una nueva política de ciclo de vida de S3 en función de los resultados. El análisis de tipo de almacenamiento también proporciona visualizaciones diarias del uso de su almacenamiento en la consola de administración de AWS y, además, puede habilitar un informe de exportación a un bucket de S3 para analizarlas con las herramientas de inteligencia empresarial que desee, como Amazon QuickSight.

Obtenga más información y comience por visitar la guía de usuario del análisis de tipos de almacenamiento de S3.

P: ¿Con qué frecuencia se actualiza el análisis de tipo de almacenamiento?

El análisis del tipo de almacenamiento se actualiza a diario en la consola de administración de S3, pero las recomendaciones iniciales para las transiciones del tipo de almacenamiento se proporcionan después de 30 días.

Consultas in situ

P: ¿Qué es la funcionalidad “consultas in situ”?

Amazon S3 permite a los clientes ejecutar consultas sofisticadas en datos almacenados sin la necesidad de migrar datos a una plataforma de análisis diferente. La capacidad para consultar estos datos in situ en Amazon S3 puede aumentar significativamente el desempeño y reducir el costo de soluciones de análisis que utilizan S3 como lago de datos. S3 ofrece varias opciones de consulta in situ, que incluyen S3 Select, Amazon Athena y Amazon Redshift Spectrum, lo que le permite elegir la que mejor se adapte a su caso de uso. Inclusive puede usar Amazon S3 Select con AWS Lambda para crear aplicaciones sin servidor que puedan aprovechar las capacidades de procesamiento in situ que provee S3 Select.

P: ¿Qué es S3 Select?

S3 Select es una característica de Amazon S3 que facilita la recuperación de datos específicos de contenido en un objeto con expresiones SQL simples sin tener que recuperar el objeto entero. S3 Select simplifica y mejora el rendimiento del sondeo y el filtrado del contenido de objetos en conjuntos de datos menores y específicos en hasta un 400 %. Con S3 Select, también puede realizar investigaciones operativas en archivos de registro en Amazon S3 sin la necesidad de usar ni administrar un clúster de computación.

Puede utilizar S3 Select para recuperar un subconjunto de datos utilizando cláusulas SQL, como SELECT y WHERE, desde objetos almacenados en formato CSV, JSON o Apache Parquet. También funciona con objetos comprimidos con GZIP o BZIP2 (solo para objetos CSV y JSON), así como con objetos cifrados del lado del servidor.

Puede usar S3 Select con AWS Lambda para crear aplicaciones sin servidor que usen S3 Select para recuperar datos de manera eficiente y sencilla de Amazon S3 en vez de recuperar y procesar el objeto entero. También puede usar S3 Select con marcos de macrodatos, como Presto, Apache Hive y Apache Spark, para sondear y filtrar datos en Amazon S3.

Para obtener más información, visite la página de la guía del usuario de S3 Select.

P: ¿Qué es Amazon Athena?

Amazon Athena es un servicio de consultas interactivo que facilita el análisis de datos en Amazon S3 con consultas SQL estándar. Athena no tiene servidor, por lo que no es necesario configurar ni administrar infraestructura, y puede comenzar a analizar los datos al instante. Ni siquiera tiene que cargar los datos en Athena, ya que funciona directamente con los datos almacenados en cualquier tipo de almacenamiento de S3. Para comenzar, inicie sesión en la consola de administración de Athena, defina sus esquemas y comience a realizar consultas. Amazon Athena utiliza Presto con compatibilidad absoluta con SQL estándar y admite varios formatos de datos estándar, como CSV, JSON, ORC, Apache Parquet y Avro. Si bien Athena es ideal para realizar consultas ad-hoc rápidas y se integra con Amazon QuickSight para una visualización sencilla, también es capaz de realizar análisis complejos, incluidas cadenas de gran tamaño, funciones de períodos y matrices.

P: ¿Qué es Amazon Redshift Spectrum?

Amazon Redshift Spectrum es una característica de Amazon Redshift que le permite ejecutar consultas en exabytes de datos no estructurados en Amazon S3 sin la necesidad de cargarlos ni de recurrir a la extracción, transformación y carga (ETL). Cuando emite una consulta, va al punto de conexión de Amazon Redshift SQL, lo que genera y optimiza un plan de consulta. Amazon Redshift determina qué datos son locales y cuáles se encuentran en Amazon S3, genera un plan para minimizar el volumen de datos de Amazon S3 que necesita leerse, y solicita a los empleados de Redshift Spectrum un grupo de recursos compartidos para leer y procesar datos de Amazon S3.

Redshift Spectrum escala horizontalmente a miles de instancias de ser necesario, por lo que las consultas se ejecutan rápidamente independientemente del volumen de los datos. Además, puede utilizar exactamente los mismos datos de SQL para Amazon S3 que utiliza en la actualidad para sus consultas en Amazon Redshift y conectarse al mismo punto de conexión de Amazon Redshift con sus herramientas de inteligencia empresarial. Redshift Spectrum permite separar el almacenamiento de la computación, por lo que puede escalar cada función de forma independiente. Puede configurar tantos clústeres de Amazon Redshift como necesite para realizar consultas en su lago de datos de Amazon S3, lo que brinda alta disponibilidad y simultaneidad ilimitada. Redshift Spectrum ofrece la posibilidad de almacenar los datos donde desee, en el formato que quiera, de modo que se encuentren disponibles para procesarlos cuando los necesite.

Replicación

P: ¿Qué es la replicación de Amazon S3?

La replicación de Amazon S3 permite la copia automática y asíncrona de objetos en los buckets de Simple Storage Service (Amazon S3). Los buckets que estén configurados para la replicación de objetos pueden pertenecer a la misma cuenta de AWS o a cuentas diferentes. Puede replicar nuevos objetos escritos en el bucket en uno o más buckets de destino entre diferentes regiones de AWS (replicación entre regiones de S3) o dentro de la misma región de AWS (replicación en la misma región de S3). También puede replicar el contenido del bucket existente (replicación por lotes de S3), incluidos los objetos existentes, los objetos que anteriormente no se pudieron replicar y los objetos replicados desde otro origen. Para obtener más información, consulte la guía del usuario sobre Replicación de S3.

P: ¿En qué consiste la replicación entre diferentes regiones (CRR) de Amazon S3?

La CRR es una característica de Amazon S3 que replica datos automáticamente entre buckets en regiones de AWS diferentes. Con la CRR, puede configurar la replicación en un nivel de bucket, un nivel de prefijo compartido o un nivel de objeto mediante etiquetas de objeto de S3. Puede utilizar la replicación entre diferentes regiones para facilitar una menor latencia en el acceso a datos situados en otras regiones geográficas. La replicación entre diferentes regiones también puede resultarle útil si, por exigencias normativas, necesita almacenar copias de los datos a cientos de kilómetros de distancia. Puede utilizar la CRR para modificar el propietario de una cuenta de objetos replicados a fin de proteger los datos de una eliminación accidental. Para obtener más información, consulte la guía del usuario sobre la CRR de S3.

P: ¿En qué consiste la replicación dentro de una misma región (SRR) de Simple Storage Service (Amazon S3)?

La SRR es una característica de Simple Storage Service (Amazon S3) que replica datos automáticamente entre buckets dentro de una misma región de AWS. Con la SRR, puede configurar la replicación en un nivel de bucket, un nivel de prefijo compartido o un nivel de objeto mediante etiquetas de objeto de S3. Puede usar la SRR para crear una o más copias de los datos en la misma región de AWS. La SRR le permite cumplir con los requisitos de conformidad y soberanía de datos porque conserva una copia de los datos en una cuenta de AWS independiente en la misma región que la cuenta original. Puede utilizar la SRR para modificar el propietario de una cuenta de objetos replicados a fin de proteger los datos de una eliminación accidental. También puede usar la SRR para combinar fácilmente registros de diferentes buckets de S3 a fin de hacer procesamientos dentro de la región o para configurar la replicación en vivo entre los entornos de prueba y desarrollo. Para obtener más información, consulte la guía del usuario sobre SRR de S3.

P: ¿Qué es la replicación por lotes de Simple Storage Service (Amazon S3)?

La replicación por lotes de Simple Storage Service (Amazon S3) replica objetos existentes entre buckets. Puede utilizar la replicación por lotes de S3 para replicar un bucket creado recientemente con objetos existentes, reintentar objetos que no se pudieron replicar anteriormente, migrar datos entre cuentas o agregar nuevos buckets a su lago de datos. Puede comenzar a utilizar Replicación por lotes de S3 con unos pocos clics en la consola de S3 o con una solicitud a la API. Para obtener más información, consulte la guía del usuario sobre la replicación por lotes de S3.

P: ¿Cómo activo la replicación de Simple Storage Service (Amazon S3) (replicación entre regiones y replicación en la misma región)?

La replicación de Amazon S3 (CRR y SRR) se configura en un nivel de bucket de S3, un nivel de prefijo compartido o un nivel de objeto mediante etiquetas de objeto de S3. Para agregar una configuración de replicación en el bucket de origen, es necesario especificar un bucket de destino en la misma región o en una región diferente de AWS para su replicación.

Puede utilizar la consola de S3, la API, la AWS CLI, los AWS SDK o AWS CloudFormation para habilitar la replicación. Para habilitar la replicación, es necesario tener activado el control de versiones tanto en el bucket de origen como en el de destino. Para obtener más información, consulte la sección Información general sobre la configuración de la replicación de S3 en la documentación de Amazon S3.

P: ¿Cómo uso la replicación por lotes de S3?

Primero deberá habilitar la replicación de S3 para los buckets. Consulte la pregunta anterior para saber cómo puede hacerlo. A continuación, puede iniciar un trabajo de replicación por lotes de S3 en la consola de S3 después de crear una nueva configuración de replicación, cambiar un destino de replicación en una regla de replicación desde la página de configuración de replicación o desde la página S3 Batch Operations Create Job (Crear trabajo de operaciones por lotes de S3). Como alternativa, puede iniciar trabajos de replicación por lotes de S3 a través de la AWS CLI o AWS SDK. Para obtener más información, consulte la sección Replicación de S3 en la documentación de Amazon S3.

P: ¿Puedo usar la replicación de S3 con las reglas del ciclo de vida de S3?

Con la replicación de S3, puede establecer reglas de replicación para hacer copias de sus objetos en otra clase de almacenamiento, en la misma región o en una diferente. Las acciones de ciclo de vida no se replican, por lo que si desea implementar la misma configuración de ciclo de vida tanto en el bucket de origen como de destino, deberá activar la misma configuración de ciclo de vida en ambos. 

Por ejemplo, puede configurar una regla de ciclo de vida para migrar datos de la clase de almacenamiento S3 Standard a la clase S3 Standard-IA o S3 One Zone-IA o para archivar datos en un tipo de almacenamiento S3 Glacier en el bucket de destino.

Si tiene un ciclo de vida de S3 configurado para su bucket de destino, le recomendamos desactivar las reglas del ciclo de vida mientras el trabajo de replicación por lotes está activo para mantener la paridad entre las versiones actuales y no actuales de los objetos en los buckets de origen y destino.

Puede encontrar más información sobre la configuración del ciclo de vida y la replicación en la
documentación sobre la replicación de S3.

P: ¿Puedo usar la replicación de S3 para replicar en más de un bucket de destino?

Sí. La replicación de S3 permite a los clientes replicar sus datos en varios buckets de destino, en la misma o en diferentes regiones de AWS. Al realizar la configuración, simplemente especifique el nuevo bucket de destino en la configuración de replicación existente o cree una nueva configuración de replicación con varios buckets de destino. Para cada nuevo destino que especifique, tiene la flexibilidad de elegir el tipo de almacenamiento del bucket de destino, el tipo de cifrado, las métricas y notificaciones de replicación, el control del tiempo de replicación (RTC) y otras propiedades.

P: ¿Puedo utilizar la replicación de S3 para configurar la replicación bidireccional entre buckets de S3?

Sí. Para configurar la replicación bidireccional, cree una regla de replicación del bucket A al bucket B y configure otra regla de replicación del bucket B al bucket A. Asegúrese de habilitar la sincronización de modificación de la réplica en los buckets A y B para replicar los cambios de metadatos de la réplica, como las listas de control de acceso (ACL) de un objeto, las etiquetas de objetos o los bloqueos de objetos en los objetos replicados.

P: ¿Puedo utilizar la réplica en cuentas de AWS para obtener protección contra eliminaciones accidentales o malintencionadas?

Sí, para CRR y SRR, puede configurar la reproducción en todas las cuentas de AWS a fin de almacenar sus datos reproducidos en una cuenta diferente en la región de destino. Puede usar la sobrescritura de propiedad en la configuración de la replicación para mantener una pila de propiedad diferente entre el origen y el destino, y otorgar la propiedad de la cuenta de destino al almacenamiento replicado.

P: ¿Se replicarán las etiquetas de mis objetos si utilizo la replicación entre diferentes regiones?

Las etiquetas de objetos admiten la replicación entre diferentes regiones de AWS. Para clientes con la replicación entre diferentes regiones ya habilitada, se requieren nuevos permisos para replicar las etiquetas. Para obtener más información sobre cómo configurar la replicación entre diferentes regiones, consulte Cómo configurar la replicación entre diferentes regiones en la documentación de Amazon S3.

P: ¿Puedo replicar marcadores de eliminación de un bucket a otro?

Sí, puede replicar marcadores de eliminación del bucket de origen al de destino si tiene activada la replicación de marcadores de eliminación en la configuración de la replicación. Cuando replica los marcadores de eliminación, Amazon S3 se comportará como si el objeto se hubiera eliminado en ambos buckets. Puede activar la replicación del marcador de eliminación en una regla de replicación nueva o existente. Puede aplicar la replicación del marcador de eliminación a todo el bucket o a objetos de Amazon S3 que tengan un prefijo específico, con reglas de replicación basadas en el prefijo. La replicación de Amazon S3 no admite la replicación del marcador de eliminación para las reglas de replicación basadas en etiquetas de objetos. Para obtener más información sobre cómo activar la replicación del marcador de eliminación, consulte Replicación de marcadores de eliminación entre buckets.

P: ¿Puedo replicar datos de otras regiones de AWS a China? ¿Un cliente puede replicar de un bucket en la región de China a otras regiones fuera de China?

No, la replicación de Amazon S3 no está disponible entre las regiones de AWS en China y las regiones de AWS fuera de China. Solo se puede replicar dentro de las regiones de China.

P: ¿Puedo replicar objetos existentes?

Sí. Puede usar la replicación por lotes de S3 para replicar objetos existentes entre buckets. Para obtener más información, consulte la guía del usuario de S3.

P: ¿Puedo volver a intentar la replicación si el objeto no se replica inicialmente?

Sí. Puede usar la replicación por lotes de S3 para volver a replicar objetos que no se replicaron inicialmente. Para obtener más información, consulte la guía del usuario de S3.

P: ¿Qué tipos de cifrado admite la replicación S3?

La replicación S3 admite todos los tipos de cifrado que ofrece S3. S3 ofrece tanto el cifrado del lado del servidor como el del lado del cliente: el primero solicita a S3 que cifre los objetos por usted, y el segundo requiere que usted cifre los datos en el lado del cliente antes de subirlos a S3. Para el cifrado del lado del servidor, S3 ofrece el cifrado del lado del servidor con claves administradas por Amazon S3 (SSE-S3), el cifrado del lado del servidor con claves KMS almacenadas en el servicio de administración de claves de AWS (SSE-KMS) y el cifrado del lado del servidor con claves proporcionadas por el cliente (SSE-C). Para más detalles sobre estos tipos de cifrado y su funcionamiento, visite la documentación de S3 sobre el uso del cifrado.

P: ¿Cuánto cuesta la replicación de datos entre diferentes cuentas?

La replicación de S3 le permite configurar la replicación entre diferentes cuentas en las que los buckets de origen y destino sean propiedad de distintas cuentas de AWS. Sin incluir los cargos de almacenamiento de S3 y de recuperación correspondientes, los clientes pagan por solicitudes PUT de replicación y transferencia SALIENTE de datos entre regiones desde S3 hasta la región de destino al usar la replicación de S3. El control del tiempo de replicación de S3 (S3 RTC), en caso de tenerlo activado en las reglas de replicación, está sujeto a cargos específicos distintos por las solicitudes PUT de replicación y la transferencia SALIENTE de datos. Para la replicación entre cuentas, la cuenta de origen paga toda la transferencia de datos (S3 RTC y S3 CRR) y la cuenta de destino paga las solicitudes PUT de replicación. Solo la replicación entre regiones de S3 (S3 CRR) y el control del tiempo de replicación de S3 (S3 RTC) están sujetos a cargos por transferencia de datos. La replicación en la misma región de S3 (S3 SRR) no incurre en estos gastos. 

Si utiliza la replicación por lotes de S3 para replicar objetos entre cuentas, incurrirá en los cargos de Operaciones por lotes de S3, además de los cargos de solicitudes PUT de replicación y los cargos de transferencia SALIENTE de datos (tenga en cuenta que S3 RTC no se aplica a la replicación por lotes). Los cargos por operaciones por lotes incluyen los cargos por trabajo y objeto, que se basan respectivamente en la cantidad de trabajos y la cantidad de objetos procesados. Además, si opta por el manifiesto generado por Simple Storage Service (Amazon S3), incurrirá en un cargo de manifiesto en función de la cantidad de objetos en el bucket de origen.

Consulte la
página de precios de Amazon S3 para obtener más detalles sobre los precios de la reproducción de S3.

Control de tiempo de reproducción de S3

P: ¿Qué es el control del tiempo de reproducción de Amazon S3?

El control del tiempo de replicación de Amazon S3 proporciona un rendimiento de replicación predecible y le ayuda a cumplir con los requisitos de conformidad o empresariales. El control del tiempo de replicación de S3 está diseñado para replicar la mayoría de los objetos en segundos, y el 99,99 % de los objetos en 15 minutos. El control del tiempo de replicación de S3 está respaldado por un compromiso de acuerdo de nivel de servicio (SLA), en el cual el 99,9% de los objetos se replicarán en 15 minutos para cada par de regiones de replicación durante cualquier mes de facturación. El tiempo de replicación es compatible con todas las características de replicación de S3. Visite la documentación sobre la replicación para obtener más información.

P: ¿Cómo activo el Control del tiempo de replicación de Amazon S3?

El control del tiempo de replicación de Amazon S3 está habilitado como una opción para cada regla de replicación. Puede crear una política de replicación de S3 nueva con control del tiempo de replicación de S3 o activar la característica en una política existente. Puede utilizar la consola de S3, la API, la AWS CLI, los AWS SDK o AWS CloudFormation para configurar la replicación. Para obtener más información, visite la descripción general de la configuración de la replicación en la Guía para desarrolladores de Amazon S3.

P: ¿Puedo utilizar el control de tiempo de replicación de S3 para replicar datos en las regiones de China y entre ellas?

Sí, puede habilitar el control del tiempo de replicación de Amazon S3 para replicar datos dentro y entre las regiones de AWS China (Ningxia) y China (Pekín).

P: ¿Qué son los eventos y las métricas de replicación de Amazon S3?

La replicación de Amazon S3 proporciona cuatro métricas detalladas en la consola de Amazon S3 y en Amazon CloudWatch: operaciones pendientes, bytes pendientes, latencia de replicación y replicación fallida en las operaciones. Puede utilizar estas métricas para supervisar la cantidad total de operaciones y el tamaño de los objetos pendientes de replicación, la latencia de replicación entre los buckets de origen y destino y la cantidad de operaciones que no se replicaron correctamente para cada regla de replicación. Además, puede configurar las notificaciones de eventos de Amazon S3 del tipo s3:Replication para obtener más información sobre los objetos que no se pudieron replicar y el motivo de los errores. Recomendamos utilizar los motivos de los errores de replicación de Amazon S3 para diagnosticar los errores rápidamente y corregirlos antes de volver a replicar los objetos fallidos con la replicación por lotes de S3. Por último, si tiene activado el control del tiempo de replicación de S3 (S3 RTC) recibirá una notificación de evento de S3 cuando un objeto demore más de 15 minutos en replicarse y otra cuando el objeto se replique correctamente en el destino.

P: ¿Cómo activo los eventos y las métricas de replicación de Amazon S3?

Las métricas y los eventos de replicación de Amazon S3 se pueden activar para las reglas de replicación nuevas o existentes y se activan de manera predeterminada para las reglas de control del tiempo de replicación de S3. Puede acceder a las métricas de replicación de S3 a través de la consola de Amazon S3 y a través de Amazon CloudWatch. Al igual que otros eventos de Amazon S3, los eventos de replicación de S3 se encuentran disponibles mediante Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) o AWS Lambda. Para obtener más información, consulte Monitoreo del avance con las métricas de replicación y las notificaciones de eventos de Amazon S3 en la guía para desarrolladores de Amazon S3.

P: ¿Qué información muestra la métrica de replicación fallida de las operaciones?

La métrica de replicación fallida de operaciones mostrará el número total de operaciones que no se pudieron replicar por minuto para una regla de replicación específica. La métrica se actualizará cada minuto para emitir +1 por cada operación fallida, 0 por operaciones satisfactorias y nada si no se ha llevado a cabo ninguna operación de replicación durante un minuto. Esta métrica se emite cada vez que una operación no se replica correctamente.

P: ¿Puedo usar las métricas y eventos de replicación de Amazon S3 para realizar un seguimiento de la replicación por lotes de S3?

No puede utilizar métricas como los bytes pendientes, las operaciones pendientes y la latencia de replicación para realizar un seguimiento del progreso de la replicación por lotes de S3. Sin embargo, puede utilizar la métrica de replicación fallida de las operaciones para monitorear los objetos existentes que no se replican correctamente con la replicación por lotes de S3. Además, también puede utilizar los informes de finalización de operaciones por lotes de S3 para realizar un seguimiento de los objetos que se replican con la replicación por lotes de S3 Batch Replication.

P: ¿Dónde se publican las métricas de replicación de Amazon S3?

Las métricas de bytes pendientes, de operaciones pendientes y de latencia de replicación se publican en la cuenta de AWS de origen y la región de AWS de destino. Sin embargo, la métrica de replicación fallida de las operaciones se publica en la cuenta de AWS de origen y la región de AWS de origen en lugar de en la región de AWS de destino. Hay dos razones principales para ello. En primer lugar, si la métrica de replicación fallida de las operaciones se publica en la región de destino, el cliente no verá la métrica cuando el bucket de destino esté configurado por error. Por ejemplo, si el cliente ha escrito mal el nombre del bucket de destino en la configuración de replicación y la replicación no se realiza correctamente porque no se encuentra el bucket de destino, el cliente no podrá ver ningún valor para esta métrica porque no se conocerá la región de destino cuando no se encuentre el bucket de destino. En segundo lugar, si el cliente realiza la replicación en una región de destino opcional, como Hong Kong o Baréin, en caso de que se produzcan errores en la replicación, el cliente no verá ninguna métrica si la cuenta de origen no ha optado por la región de destino.

P: ¿Qué es el acuerdo de nivel de servicios (SLA, Service Level Agreement) del Control del tiempo de la replicación de Amazon S3?

El control del tiempo de replicación de Amazon S3 se diseñó para replicar el 99,99 % de los objetos en un plazo de 15 minutos y cuenta con el respaldo del acuerdo de nivel de servicio. Si se replican menos del 99,9 % de los objetos en 15 minutos en un par de regiones de replicación durante un ciclo de facturación mensual, el acuerdo de nivel de servicio de S3 RTC prevé un crédito de servicio para cualquier objeto que haya tardado más de 15 minutos en replicarse. El crédito para el servicio cubre un porcentaje de todos los cargos relacionados con la replicación que estén asociados con los objetos que no cumplieron el acuerdo, que incluye el cargo del control del tiempo de replicación, los cargos de solicitudes y ancho de banda de la replicación y el costo asociado con el almacenamiento de réplicas en la región de destino en el ciclo de facturación mensual en cuestión. Para obtener más información, consulte la sección sobre el acuerdo de nivel de servicio del control del tiempo de replicación de S3.

P: ¿Cuál es el esquema de precios de la replicación de S3 y el control del tiempo de replicación de S3?

Para la replicación S3 (replicación entre regiones y replicación en la misma región), paga los cargos de S3 por almacenamiento en los tipos de almacenamiento S3 de destino seleccionados, los cargos de almacenamiento para la copia principal, las solicitudes PUT de replicación y la tarifas de recuperación de almacenamiento de acceso no frecuente que se apliquen. Para CRR, también paga la transferencia de datos saliente entre regiones desde S3 a la región de destino. Las métricas de replicación de S3 se facturan al mismo precio que las métricas personalizadas de Amazon CloudWatch. Además, cuando utiliza el Control del tiempo de replicación de S3, también paga un cargo de transferencia de datos de Control del tiempo de replicación. Para obtener más información, consulte la página de precios de Amazon S3.

Si se carga el objeto de origen a través de la característica de carga multiparte, se replicará usando el mismo número de partes y tamaño de parte. Por ejemplo, si carga un objeto de 100 GB a través de la característica de carga multiparte (800 partes de 128 MB cada una), se aplicarán costos asociados a 802 solicitudes (800 solicitudes de carga de las partes + 1 solicitud para iniciar la carga multiparte + 1 solicitud para completar la carga multiparte) al replicar. Tendrá un cargo de solicitud de 0,00401 USD (802 solicitudes x 0,005 USD por 1000 solicitudes) y, si la replicación se realizó entre regiones de AWS diferentes, un cargo de 2,00 USD (0,020 USD por GB transferido x 100 GB) para transferencias de datos entre regiones. Tras la replicación, los 100 GB generarán cargos de almacenamiento en función de la región de destino.

P: ¿Cómo se me cobran las métricas de replicación de S3 en Amazon CloudWatch?

Todas las métricas de replicación de S3, incluidos los bytes pendientes, las operaciones pendientes, la latencia de replicación y las operaciones con errores de replicación, se facturan con la misma tarifa que las métricas personalizadas de Amazon CloudWatch: 0,30 USD por métrica al mes para las 10 000 primeras métricas, 0,10 USD por métrica al mes para las siguientes 240 000 métricas, 0,05 USD por métrica al mes para las siguientes 750 000 métricas y 0,02 USD por métrica al mes para más de 1 millón de métricas.

Por ejemplo, si su bucket de S3 tiene 100 reglas de replicación con las métricas de replicación habilitadas para cada regla, recibirá un cargo mensual de Amazon CloudWatch por 400 métricas de replicación (100 reglas de replicación x 4 métricas por regla de replicación). El cargo prorrateado mensual para estas 400 métricas será de 120 USD (400 métricas de replicación x 0,30 USD por métrica [para las primeras 10 000 métricas]). Para obtener información sobre la facturación de Amazon CloudWatch, consulte la página de precios de Amazon CloudWatch.

Puntos de acceso de varias regiones de S3

P: ¿Qué son los puntos de acceso de varias regiones de S3?

Los puntos de acceso de varias regiones de Amazon S3 aceleran el rendimiento hasta el 60 % cuando se accede a los conjuntos de datos que están replicados en varias regiones de AWS. Con base en AWS Global Accelerator, los puntos de acceso para varias regiones de S3 toman en cuenta factores como la congestión de la red y la ubicación de la aplicación de solicitud para dirigir de forma dinámica las solicitudes a través de la red de AWS a la copia de los datos con menor latencia. Este enrutamiento automático permite aprovechar la infraestructura global de AWS mientras se conserva una arquitectura de aplicaciones simple.

P: ¿Por qué debería usar los puntos de acceso de varias regiones de S3?

Los puntos de acceso de varias regiones de S3 aceleran y simplifican el almacenamiento para sus aplicaciones en varias regiones. Gracias a que dirigen de forma dinámica las solicitudes de S3 realizadas a un conjunto de datos replicado, los puntos de acceso para varias regiones de S3 reducen la latencia de las solicitudes, de forma que las aplicaciones se ejecutan hasta un 60 % más rápido. Los puntos de acceso multirregionales de S3 también pueden ser de ayuda para crear aplicaciones resilientes, multirregionales y multicuentas que estén más protegidas contra la eliminación de datos accidental o no autorizada. Con los puntos de acceso multirregionales de S3 puede aprovechar la infraestructura global de AWS mientras conserva una arquitectura de aplicaciones simple y agnóstica.

P: ¿Cómo funcionan los puntos de acceso de varias regiones de S3?

Los puntos de acceso de varias regiones dirigen de forma dinámica las solicitudes de los clientes a uno o más buckets de S3 subyacentes. Puede configurar su punto de acceso para varias regiones para dirigir a un bucket por región de AWS en un máximo de 20 regiones de AWS. Cuando crea un punto de acceso para varias regiones, S3 genera de forma automática un nombre compatible con DNS. Este nombre se utiliza como punto de conexión global que pueden utilizar sus clientes. Cuando sus clientes envían solicitudes a este punto de conexión, S3 las dirigirá de forma dinámica a uno de los buckets subyacentes especificados en la configuración de su punto de acceso de varias regiones. Las solicitudes basadas en Internet se incorporan a la red global de AWS para evitar segmentos congestionados en Internet. Esto reduce la latencia y la fluctuación de la red al tiempo que mejora el rendimiento. Con base en AWS Global Accelerator, las aplicaciones que acceden a S3 en Internet pueden ver el rendimiento mejorado en hasta un 60 % por los puntos de acceso de varias regiones de S3.

Para controlar directamente este enrutamiento, puede operar los puntos de acceso de varias regiones de S3 en una configuración activa-activa o activa-pasiva. En una configuración activa-pasiva, puede utilizar los controles de conmutación por error de los puntos de acceso de varias regiones de S3 para iniciar una conmutación por error a fin de cambiar el tráfico de la solicitud de acceso a datos de S3 a la cuenta y la región de AWS alternativa en cuestión de minutos.

En una configuración activa-activa, los puntos de acceso de varias regiones de S3 toman en cuenta factores como la congestión de la red y la ubicación de la aplicación de solicitud para dirigir de forma dinámica las solicitudes a la red de AWS con la menor copia de latencia de los datos. Los puntos de acceso de varias regiones de S3 enrutan sus solicitudes a través de la ubicación de AWS más cercana a su cliente y luego a través de la red global privada de AWS para S3.

En cualquiera de las configuraciones, los puntos de acceso de varias regiones de S3 le permiten aprovechar la infraestructura global de AWS mientras conserva una arquitectura de aplicaciones simple.

P. ¿Cómo funcionan los controles de conmutación por error de los puntos de acceso de varias regiones de S3?

De forma predeterminada, los puntos de acceso de varias regiones de S3 dirigen las solicitudes al bucket subyacente más cercano al cliente, en función de la latencia de la configuración activa-activa de la red. Por ejemplo, puede configurar un punto de acceso de varias regiones con buckets subyacentes en el Este de EE. UU. (Norte de Virginia) y en Asia-Pacífico (Bombay). Con esta configuración, sus clientes en Norteamérica se dirigirán al Este de EE. UU. (Norte de Virginia) y sus clientes en Asia se dirigirán a Asia-Pacífico (Bombay). Esto reduce la latencia de sus solicitudes a S3 y mejora el rendimiento de su aplicación. Si prefiere una configuración activa-pasiva, todo el tráfico de solicitudes de datos de S3 se puede enrutar a través de los puntos de acceso de varias regiones de S3 al Este de EE. UU. (Norte de Virginia), ya que la región activa y sin tráfico se enrutará a Asia-Pacífico (Bombay). Si hay una necesidad planificada o no planificada de conmutar por error todo el tráfico de solicitud de datos de S3 a Asia-Pacífico (Bombay), puede iniciar una conmutación por error para cambiar a Asia-Pacífico (Bombay) como la nueva región activa en cuestión de minutos. Cualquier carga o descarga en progreso existente en el Este de EE. UU. (Norte de Virginia) continuará hasta que se termine y el nuevo tráfico de solicitud de datos de S3 se enrutará a través del punto de acceso de varias regiones de S3 a Asia-Pacífico (Bombay).

P: ¿Los puntos de acceso multirregionales de S3 pueden funcionar con buckets que pertenecen a diferentes cuentas de AWS?

Sí, para agregar buckets en varias cuentas de AWS a un nuevo punto de acceso multirregional de S3, ingrese los ID de las cuentas que sean propietarias de los buckets en el momento de la creación. Si los buckets aún no están configurados para la replicación entre cuentas, puede configurar las reglas de replicación entre regiones de S3 para sincronizar el contenido de los buckets en todas las cuentas y regiones de AWS. A continuación, sus aplicaciones podrán solicitar o escribir datos a través del punto de acceso global multirregional en todas las cuentas y regiones de AWS.

P: ¿Cómo funciona la configuración de bloqueo del acceso público para los puntos de acceso multirregionales que abarcan varias cuentas de AWS?

Cada punto de acceso multirregional de S3 tiene una configuración distinta para Bloqueo del acceso público de Amazon S3. Esta configuración funciona junto con la configuración de bloqueo del acceso público para los buckets que subyacen al punto de acceso multirregional, la configuración de bloqueo del acceso público para las cuentas de AWS propietarias del punto de acceso multirregional y la configuración de bloqueo del acceso público para las cuentas de AWS que son propietarias de los buckets subyacentes.

Cuando Amazon S3 autoriza una solicitud, aplica la combinación más restrictiva de estas configuraciones. Si la configuración de bloqueo del acceso público de alguno de estos recursos (el punto de acceso multirregional, el bucket subyacente, la cuenta del propietario del punto de acceso multirregional o la cuenta del propietario del bucket) bloquea el acceso a la acción o el recurso solicitados, Amazon S3 rechaza la solicitud.

Este comportamiento es coherente con los puntos de acceso de S3 entre cuentas. Se aplica la misma lógica de autorización cuando se atienden las solicitudes de puntos de acceso de S3 entre cuentas y puntos multirregionales de S3 entre cuentas.

P: ¿Cuál es la diferencia entre la replicación entre regiones de S3 (S3 CRR) y los puntos de acceso de varias regiones de S3?

S3 CRR y los puntos de acceso de varias regiones de S3 son características complementarias que funcionan conjuntamente para replicar datos entre regiones de AWS y a continuación dirigir las solicitudes a la copia replicada con la menor latencia. Los puntos de acceso de varias regiones de S3 lo ayudan a administrar las solicitudes en las regiones de AWS, mientras que CRR le permite mover datos en las regiones de AWS para crear réplicas aisladas. Utilice los puntos de acceso de varias regiones de S3 junto con CRR para crear un conjunto de datos de varias regiones replicado que se pueda dirigir mediante un único punto de conexión global.

P: ¿Cuánto cuestan los puntos de acceso de varias regiones de S3?

Cuando utiliza un punto de acceso para varias regiones de S3 para dirigir solicitudes en AWS, paga un cargo por GB bajo de enrutamiento de datos por cada GB procesado, así como cargos estándares de solicitud, almacenamiento, transferencia de datos y replicación de S3. Si la aplicación se ejecuta fuera de AWS y accede a S3 por Internet, se incrementa el rendimiento de los puntos de acceso para varias regiones de S3 mediante el enrutamiento automático de las solicitudes a través de una ubicación de borde de AWS, mediante la red global privada de AWS, hacia la copia de datos más cercana de acuerdo con la latencia de acceso. Cuando acelera las solicitudes realizadas a través de Internet, paga el cargo de enrutamiento de los datos y un cargo de aceleración de Internet. El precio por la aceleración de Internet de los puntos de acceso de varias regiones de S3 varía en función de si el cliente de origen se encuentra en la misma ubicación o en una diferente de la región de destino de AWS y se suma al precio de transferencia de datos estándar de S3. Para usar los controles de conmutación por error de los puntos de acceso de varias regiones de S3, solo se le cobrarán los costos de la API de S3 para ver el estado actual del control de enrutamiento de cada región y para enviar cualquier cambio de control con el fin de iniciar una conmutación por error. Visite la página de precios de Amazon S3 y la pestaña de transferencia de datos para obtener más información sobre los precios.

P: ¿Puedo usar los pagos por solicitante con los puntos de acceso multirregionales de S3?

Sí, puede configurar los buckets subyacentes del punto de acceso multirregional de S3 para que sean buckets de pagos por solicitante. Con los pagos por solicitante, el solicitante paga todo el costo asociado al uso del punto de conexión, incluido el costo de las solicitudes y el costo de transferencia de datos asociado tanto al bucket como al punto de acceso multirregión. Lo normal es configurar los buckets como buckets de pago por solicitante si desea compartir datos, pero no incurrir en gastos asociados al acceso de otros a los datos. En general, los propietarios de un bucket pagan por todo el almacenamiento de Amazon S3 asociado a su bucket. Para obtener más información, visite Pagos por solicitante de S3.

P: ¿En qué difiere la aceleración de transferencias de S3 de los puntos de acceso multirregionales de S3?

Los puntos de acceso de varias regiones de S3 y la aceleración de transferencias de S3 ofrecen beneficios similares de rendimiento. Puede usar la aceleración de transferencias de S3 para dar más velocidad a la transferencia de contenido desde Amazon S3 y hacia este con la red global de AWS. La aceleración de transferencias de S3 ayuda a acelerar las transferencias de larga distancia de objetos más grandes desde un único bucket de Amazon S3 y hacia este. Con los puntos de acceso de varias regiones de S3, puede realizar transferencias aceleradas similares mediante la red global de AWS, pero a través de muchos buckets de S3 en varias regiones de AWS para solicitudes basadas en Internet, basadas en VPC y solicitudes en las instalaciones desde S3 y hacia este. Cuando combina los puntos de acceso de varias regiones de S3 con S3 CRR, proporciona la capacidad para que los puntos de acceso de varias regiones de S3 enruten de forma dinámica sus solicitudes a la copia de latencia más baja de sus datos para aplicaciones de clientes en varias ubicaciones.

P: ¿Cómo puedo comenzar a usar los puntos de acceso multirregionales de S3 y los controles de conmutación por error?

La consola de S3 proporciona un flujo de trabajo guiado simple para configurar rápidamente todo lo que necesita para ejecutar el almacenamiento multirregional en S3 en solo tres pasos sencillos. Primero, cree un punto de conexión para un punto de acceso multirregional de Amazon S3 y especifique las regiones de AWS entre las que quiere replicar y conmutar por error. Para agregar buckets en varias cuentas de AWS a un nuevo punto de acceso multirregional de S3, ingrese los ID de las cuentas que sean propietarias de los buckets en el momento de la creación. Segundo, para cada región de AWS y bucket de S3 detrás de su punto de conexión del punto de acceso multirregional de S3, especifique si su estado de enrutamiento es activo o pasivo, dónde las regiones de AWS aceptan el tráfico de solicitudes de datos de S3 y si las regiones pasivas no se enrutan hasta que inicie una conmutación por error. Tercero, configure sus reglas de S3 CRR para sincronizar sus datos en S3 entre las regiones o las cuentas. Puede iniciar una conmutación por error en cualquier momento entre las regiones de AWS en cuestión de minutos para cambiar sus solicitudes de datos de S3 y monitorear el cambio de su tráfico de S3 a su nueva región de AWS activa en Amazon CloudWatch. Como alternativa, puede utilizar AWS CloudFormation para automatizar su configuración de almacenamiento multirregional. Todos los componentes necesarios para configurar el almacenamiento multirregional en S3, incluidos los puntos de acceso multirregionales de S3, son compatibles con CloudFormation. Esto le permite automatizar fácilmente un proceso de configuración repetible fuera de la consola de administración de S3.

Procesamiento de datos

Object Lambda

P: ¿En qué consiste S3 Object Lambda?

S3 Object Lambda le permite agregar su propio código a las solicitudes GET, LIST y HEAD de S3 para modificar y procesar los datos a medida que se devuelven a una aplicación. Puede utilizar código personalizado para modificar los datos que devuelven las solicitudes GET de S3 a fin de filtrar columnas, redimensionar imágenes de forma dinámica, ocultar datos confidenciales y mucho más. También puede usar S3 Object Lambda para modificar la salida de las solicitudes LIST de S3 a fin de crear una vista personalizada de los objetos en un bucket y las solicitudes HEAD de S3 para modificar los metadatos del objeto, como su nombre y tamaño. S3 Object Lambda lo ayuda a cumplir con facilidad los requisitos de formato de datos únicos de cualquier aplicación sin tener que crear y operar infraestructura adicional, como una capa de proxy, ni crear y mantener varias copias derivativas de sus datos. S3 Object Lambda utiliza funciones de AWS Lambda para procesar automáticamente la salida de una solicitud GET, HEAD o LIST de S3 estándar. AWS Lambda es un servicio de computación sin servidor que ejecuta código definido por el cliente sin necesidad de administrar los recursos de computación subyacentes. 

Con tan solo unos clics en la consola de administración de AWS, puede configurar una función de Lambda y adjuntarla a un punto de acceso de servicio de S3 Object Lambda. A partir de ese punto, S3 llamará automáticamente a la función de Lambda para procesar cualquier dato recuperado a través del punto de conexión de S3 Object Lambda, para devolver un resultado transformado a la aplicación. Puede crear y ejecutar funciones de Lambda propias y personalizadas, con lo que es posible adaptar la transformación de datos de S3 Object Lambda a casos de uso específicos.

Para comenzar a utilizar S3 Object Lambda, puede utilizar la consola de administración de S3, el SDK o la API. Obtenga más información en la página de S3 Object Lambda o en la guía del usuario de S3 Object Lambda.

P: ¿Por qué debería utilizar S3 Object Lambda?

S3 Object Lambda es indispensable si desea procesar datos en línea con una solicitud GET, LIST o HEAD de S3. Puede utilizar S3 Object Lambda para compartir una única copia de los datos entre muchas aplicaciones, lo que evita la necesidad de crear y operar una infraestructura de procesamiento personalizada o de almacenar copias derivadas de los datos. Por ejemplo, mediante el uso de S3 Object Lambda para procesar solicitudes GET de S3, puede enmascarar datos confidenciales con fines de conformidad, reestructurar datos sin procesar con el fin de que sean compatibles con aplicaciones de machine learning, filtrar datos para restringir el acceso a contenido específico dentro de un objeto de S3 o para abordar una amplia gama de casos de uso adicionales. Puede usar S3 Object Lambda para ampliar sus listas de objetos al consultar un índice externo que contiene metadatos de objetos adicionales, filtrar y enmascarar sus listas de objetos para incluir solo objetos con una etiqueta de objeto específica, o agregar una extensión de archivo a todos los nombres de objetos en sus listas de objetos. Por ejemplo, si tiene un bucket de S3 con varios conjuntos de datos discretos, puede usar S3 Object Lambda para filtrar una respuesta de S3 LIST según el solicitante. 

S3 Object Lambda se puede configurar con tan solo unos clics en la consola de administración de Amazon S3. Lea la guía del usuario para obtener más información.

P: ¿Cómo funciona S3 Object Lambda?

S3 Object Lambda utiliza funciones de Lambda especificadas por usted para procesar la salida de las solicitudes GET, LIST y HEAD de S3. Una vez que haya definido una función de Lambda para procesar los datos solicitados, puede asociar esa función a un punto de acceso de S3 Object Lambda. Las solicitudes GET, LIST y HEAD de S3 que se realizan mediante un punto de acceso de Lambda para objetos de S3 invocarán a partir de ahora la función Lambda especificada. Tras ello, Lambda obtendrá el objeto de S3 solicitado por el cliente y lo procesará. Una vez completado el procesamiento, Lambda transmitirá el objeto procesado al cliente que lo ha llamado. Lea la guía del usuario de S3 Object Lambda para obtener más información.

P: ¿Cómo puedo comenzar a utilizar S3 Object Lambda?

S3 Object Lambda se puede configurar de varias formas. Para configurar S3 Object Lambda en la consola de S3, vaya a la pestaña Access Point (Punto de acceso) de Object Lambda. A continuación, cree un punto de acceso de S3 Object Lambda, la función de Lambda que quiere que S3 ejecute en las solicitudes GET, LIST y HEAD de S3 y un punto de acceso de S3 de apoyo. Conceda permisos a todos los recursos para que interactúen con Object Lambda. Por último, actualice su SDK y la aplicación para utilizar el nuevo punto de acceso de S3 Object Lambda y obtener datos de S3 mediante el SDK en el lenguaje que elija. Puede utilizar un alias de punto de acceso de S3 Object Lambda al realizar solicitudes. Los alias de los punto de acceso de S3 Object Lambda se generan automáticamente y son intercambiables con los nombres de los buckets de S3 para los datos a los que se accede a través de S3 Object Lambda. Para los puntos de acceso de S3 Object Lambda existentes, los alias se asignan automáticamente y están listos para su uso. En la documentación de AWS hay ejemplos de implementaciones de funciones de Lambda que le permitirán comenzar.

También puede usar AWS CloudFormation para automatizar la configuración de S3 Object Lambda. Al usar la plantilla de AWS CloudFormation, la función de Lambda que se implementa en su cuenta devolverá los objetos de S3 a la aplicación o cliente solicitante sin cambiar nada. Puede agregar código personalizado para modificar y procesar datos al devolverlos a una aplicación. Para obtener más información, consulte la guía del usuario de S3 Object Lambda. 

P: ¿Qué tipo de operaciones puedo llevar a cabo con S3 Object Lambda?

Todas las operaciones admitidas en una función de Lambda son compatibles con S3 Object Lambda. Esto ofrece una amplia gama de opciones disponibles para procesar las solicitudes. Tiene que proporcionar su propia función de Lambda para ejecutar cálculos personalizados con respecto a las solicitudes GET, LIST y HEAD, lo que permite la flexibilidad de procesar los datos de acuerdo con las necesidades de la aplicación. El tiempo de procesamiento de Lambda está limitado a un máximo de 60 segundos. Para obtener más información, consulte la documentación de S3 Object Lambda.

P: ¿Qué tipos de solicitudes de S3 admite S3 Object Lambda?

S3 Object Lambda admite solicitudes GET, LIST y HEAD. Cualquier otra llamada de la API de S3 realizada a un punto de acceso de S3 Object Lambda devolverá la respuesta de la API de S3 estándar. Obtenga más información sobre S3 Object Lambda en la guía del usuario.

P: ¿Qué ocurrirá si se produce un error en una función de S3 Object Lambda?

Si se produce un error en una función de S3 Object Lambda, recibirá una respuesta de solicitud en la que se explica el error. Al igual que con las demás invocaciones de funciones Lambda, AWS también monitorea automáticamente las funciones en su nombre y reporta las métricas mediante Amazon CloudWatch. Para ayudarlo a solucionar los errores, Lambda registra todas las solicitudes procesadas por la función y almacena automáticamente los registros generados por el código con Registros de Amazon CloudWatch. Para obtener más información sobre el acceso a los registros de CloudWatch para AWS Lambda, consulte la documentación de CloudWatch.

P: ¿S3 Object Lambda afecta el acuerdo de nivel de servicio de disponibilidad de S3 o la durabilidad de S3?

S3 Object Lambda conecta Amazon S3, AWS Lambda y, opcionalmente, otros servicios de AWS que usted elija para entregar objetos relevantes para las aplicaciones que hagan solicitudes. Todos los servicios de AWS utilizados en relación con S3 Object Lambda seguirán rigiéndose por sus respectivos acuerdos de nivel de servicio (SLA). Por ejemplo, si algún servicio de AWS no cumple con su compromiso de servicio, usted podrá recibir un crédito de servicio según se indica en el acuerdo de nivel de servicio correspondiente. La creación de un punto de acceso de S3 Object Lambda no afecta a la durabilidad de los objetos. Sin embargo, S3 Object Lambda invoca la función de AWS Lambda especificada y usted debe asegurarse de que la función de Lambda especificada es la prevista y correcta. Consulte el acuerdo de nivel de servicio más reciente de Amazon S3 aquí.

P: ¿Cuánto cuesta S3 Object Lambda?

Al utilizar S3 Object Lambda, se paga un cargo por GB por cada gigabyte de datos que se devuelva a través de S3 Object Lambda. También se le cobran las solicitudes según el tipo (solicitudes GET, LIST y HEAD) y los cargos de computación de AWS Lambda por el tiempo que la función especificada se ejecuta para procesar los datos solicitados. Para obtener información sobre los precios y un ejemplo, lea la página de precios de S3.

Acceso a los datos

Mountpoint para Amazon S3

P: ¿Qué es Mountpoint para Amazon S3?

Mountpoint para Amazon S3 es un cliente de archivos de código abierto que puede usar para montar un bucket de S3 en su instancia de proceso y acceder a él como un sistema de archivos local. Mountpoint para Amazon S3 traduce las operaciones del sistema de archivos local en llamadas a la API de REST en objetos almacenados en Amazon S3. Con Mountpoint para Amazon S3, puede lograr un alto rendimiento de instancia única para terminar los trabajos más rápido. Mountpoint para Amazon S3 cuenta con el respaldo de AWS Support. Los clientes con acceso a AWS Enterprise Support reciben soporte técnico las 24 horas del día, los 7 días de la semana por parte de los ingenieros de soporte de Amazon y orientación arquitectónica en el contexto de sus casos de uso. Mountpoint para Amazon S3 funciona con el sistema operativo Linux y los servicios informáticos de AWS, como Amazon Elastic Compute Cloud (EC2). Obtenga más información en la página de Mountpoint para Amazon S3 o en la guía del usuario.

P: ¿Cuándo debo usar Mountpoint para Amazon S3?

Mountpoint para Amazon S3 es ideal para cargas de trabajo de lagos de datos de lectura intensiva que procesan petabytes de datos mediante operaciones de lectura aleatorias y secuenciales en archivos existentes y operaciones de escritura secuencial para crear archivos nuevos. Estas cargas de trabajo escriben desde un único nodo y no modifican los datos existentes en Amazon S3. Los casos de uso comunes incluyen la simulación de vehículos autónomos a escala de petabytes, la capacitación en machine learning, el análisis genómico y la representación de imágenes. Estas cargas de trabajo aumentan y disminuyen rápidamente y se basan en la elasticidad de Amazon S3 para minimizar la capacidad infrautilizada y evitar el costo del sobreaprovisionamiento del rendimiento. Puede ahorrar en costos de procesamiento con Mountpoint para Amazon S3 al utilizar de manera eficiente el uso del ancho de banda de la red de sus instancias de proceso y escalar de manera confiable a miles de instancias de proceso para cargas de trabajo de lagos de datos a escala de petabytes.

P: ¿Qué operaciones del sistema de archivos admite Mountpoint para Amazon S3?

Mountpoint para Amazon S3 admite operaciones básicas del sistema de archivos, como leer archivos de hasta 5 TB de tamaño, escribir archivos nuevos, enumerar archivos existentes y crear y enumerar directorios. Mountpoint para Amazon S3 no admite la modificación de archivos existentes ni la eliminación de directorios existentes. Con estas operaciones, Mountpoint para Amazon S3 es ideal para aplicaciones que leen y escriben datos con un alto rendimiento en los lagos de datos de Amazon S3. No es adecuado para aplicaciones que necesitan colaboración y coordinación entre varios usuarios o instancias de proceso. Por lo general, estas aplicaciones necesitan características de un sistema de archivos compartidos, como la adición a los archivos existentes y el bloqueo de archivos. Puede usar Amazon FSx para Lustre para aplicaciones de lagos de datos que necesitan la semántica POSIX y las características del sistema de archivos compartidos.

P: ¿Cómo puedo empezar a usar Mountpoint para Amazon S3?

Puede empezar a usar Mountpoint para Amazon S3 montando un bucket de S3 en un directorio local de su instancia de proceso siguiendo las instrucciones que se proporcionan en la documentación. Una vez que monte el bucket de S3 en un directorio local, sus aplicaciones podrán acceder a los objetos de S3 como archivos disponibles localmente en su instancia de proceso. Mountpoint para Amazon S3 admite operaciones de lectura secuenciales y aleatorias en objetos de Amazon S3 existentes y admite escrituras secuenciales para objetos nuevos. Consulte la documentación semántica de Mountpoint para Amazon S3 para obtener más información sobre las operaciones del sistema de archivos compatibles. Puede usar Mountpoint para Amazon S3 para acceder a los objetos de todas las clases de almacenamiento de S3, excepto los objetos de S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive y los objetos de los niveles Archive Access y Deep Archive Access de S3 Intelligent-Tiering.

P: ¿Cómo se me cobra Mountpoint para Amazon S3?

No se aplica ningún cargo adicional por el uso de Mountpoint para Amazon S3. Usted paga por las solicitudes de la API de S3, como las solicitudes GET, PUT y LIST realizadas por Mountpoint para Amazon S3, cuando ejecuta operaciones del sistema de archivos, como las operaciones de lectura, escritura de archivos y listado de directorios. Para obtener información sobre los precios de S3, visite la página de precios.

P: ¿Qué rendimiento puedo esperar de Mountpoint para Amazon S3?

Mountpoint para Amazon S3 ofrece el mismo rendimiento que los SDK de AWS. Esto significa que las aplicaciones de lagos de datos logran altas velocidades de transferencia de una sola instancia, utilizando de manera eficiente el ancho de banda de la red disponible en su instancia de Amazon EC2. Para lograr un rendimiento aún mayor, estas aplicaciones pueden agregar el rendimiento en varias instancias para obtener varios TB/s.

P: ¿Cómo puedo controlar el acceso a mis datos cuando uso Mountpoint para Amazon S3?

Al usar Mountpoint para Amazon S3, puede controlar el acceso a sus datos mediante los mecanismos de control de acceso existentes de Amazon S3, incluidas las políticas de bucket y las políticas de AWS Identity and Access Management (IAM). Mountpoint para Amazon S3 traduce las operaciones del sistema de archivos, como la lectura y la escritura, en solicitudes de API de objetos realizadas en su bucket de S3. Posteriormente, Amazon S3 evalúa todas las políticas pertinentes, como las del usuario y el bucket, para decidir si autoriza la solicitud. Mountpoint para Amazon S3 no introduce nuevos mecanismos de control de acceso.

P: ¿Mountpoint para Amazon S3 admite metadatos de tipo POSIX, como el ID de usuario, el ID de grupo y los campos de permisos?

Mountpoint para Amazon S3 no admite la lectura ni la escritura de metadatos de tipo POSIX, como el ID de usuario, el ID de grupo y los campos de permisos. Puede usar Amazon FSx para Lustre con Amazon S3 o AWS DataSync para almacenar metadatos de estilo POSIX para objetos de S3.

P: ¿Mountpoint para Amazon S3 admite el acceso a través de AWS PrivateLink?

Sí, Mountpoint para Amazon S3 admite el acceso a través de AWS PrivateLink. AWS PrivateLink para S3 brinda conectividad privada entre Amazon S3 y el sistema en las instalaciones. Puede aprovisionar su VPC con puntos de conexión de VPC de interfaz para S3 para conectar sus aplicaciones en las instalaciones directamente a S3 a través de AWS Direct Connect o AWS VPN.

P: ¿Mountpoint para Amazon S3 admite el acceso a través de puntos de conexión de VPC?

Sí, Mountpoint para Amazon S3 admite el acceso a través de puntos de conexión de VPC para puerta de enlace. Le recomendamos que utilice puntos de conexión de VPC de interfaz basados en AWS PrivateLink para acceder a S3 locales o desde una VPC en otra región de AWS. Para los recursos que acceden a S3 desde una VPC en la misma región de AWS que su bucket de S3, recomendamos utilizar puntos de conexión de VPC de puerta de enlace, ya que no se facturan.

P: ¿Puedo obtener acceso a Amazon S3 desde pods de Amazon Elastic Kubernetes Service (Amazon EKS)?

Sí, puede acceder a Amazon S3 desde Amazon EKS mediante el SDK de AWS y la CLI de AWS. Para las aplicaciones que utilizan una interfaz de sistema de archivos para leer y escribir datos, puede utilizar el controlador de la interfaz de almacenamiento de contenedores (CSI) de Mountpoint para Amazon S3. Con el controlador de CSI de Mountpoint para Amazon S3, puede lograr altos niveles de rendimiento agregado (hasta terabits por segundo) sin cambiar ni una sola línea del código de la aplicación ni el modelo de permisos. Como Mountpoint para Amazon S3, el controlador de CSI para S3 admite operaciones de lectura secuencial y aleatoria en archivos existentes y operaciones de escritura secuencial para crear archivos nuevos. Para obtener más información sobre las operaciones del sistema de archivos compatibles, lea el comportamiento del sistema de archivos de Mountpoint para Amazon S3. Puede instalar, configurar y actualizar el controlador de CSI de Mountpoint para Amazon S3 con solo unos clics en la consola de EKS, la CLI de AWS, la API de EKS o AWS CloudFormation.

¿Todo listo para comenzar?

Consulte las características del producto

Obtenga más información sobre las características para la administración de datos, la seguridad, la administración de acceso, el análisis y más.

Más información 
Inscríbase para obtener una cuenta gratuita

Obtenga acceso al instante a la capa gratuita de AWS y comience a experimentar con Amazon S3. 

Inscribirse 
Comience a crear en la consola

Introducción a la creación de soluciones con Amazon S3 en la consola de AWS.

Introducción