Preguntas frecuentes sobre los aspectos generales de S3

P: ¿Qué es Amazon S3?

Amazon S3 es un servicio de almacenamiento de objetos creado para almacenar y recuperar cualquier volumen de datos desde cualquier ubicación. Es un servicio de almacenamiento sencillo que ofrece excelente durabilidad, disponibilidad, rendimiento, seguridad y escalabilidad prácticamente ilimitada a costos muy reducidos.

P: ¿Qué puedo hacer con Amazon S3?

Amazon S3 proporciona una sencilla interfaz de servicio web que puede utilizar para almacenar y recuperar el volumen de datos que desee, cuando lo necesite y desde cualquier ubicación. Mediante este servicio, puede crear de forma sencilla aplicaciones que utilicen almacenamiento nativo en la nube. Como Amazon S3 es un servicio con un alto nivel de escalabilidad y usted paga por lo que usa, podrá comenzar de a poco y ampliar su aplicación como desee, sin poner en riesgo ni el desempeño ni la fiabilidad.

Amazon S3 también se ha diseñado para ser muy flexible. Almacene el tipo y la cantidad de datos que desee; lea el mismo fragmento de datos un millón de veces o solo en caso de recuperación de desastres de emergencia; cree una aplicación FTP sencilla o una aplicación web sofisticada como el sitio web de venta al por menor Amazon.com. Amazon S3 permite a los desarrolladores enfocarse en innovar, en lugar de perder tiempo en averiguar cómo almacenar los datos.

P: ¿Cómo puedo comenzar a utilizar Amazon S3?

Para inscribirse en Amazon S3, haga clic en este enlace. Necesita una cuenta de Amazon Web Services para poder obtener acceso a este servicio. Si todavía no tiene una, se le solicitará que la cree cuando comience el proceso de inscripción en Amazon S3. Tras inscribirse, consulte la documentación de Amazon S3 y el código de muestra en el Centro de recursos para comenzar a utilizar el servicio.

P: ¿Qué es lo que los desarrolladores sí pueden hacer con Amazon S3 y no con una solución local?

Amazon S3 permite a cualquier desarrollador aprovechar los beneficios propios de Amazon de escala masiva sin una inversión inicial y sin poner en riesgo el rendimiento. Ahora los desarrolladores pueden innovar sabiendo que, sin importar el éxito que alcancen sus negocios, será asequible y sencillo garantizar que siempre se podrá obtener acceso a los datos con rapidez y que siempre estarán disponibles y protegidos.

P: ¿Qué tipos de datos pueden almacenarse en Amazon S3?

Podrá almacenar prácticamente todo tipo de datos en cualquier formato. Consulte el acuerdo de licencia de Amazon Web Services para obtener más información.

P: ¿Qué volumen de datos puedo almacenar Amazon S3?

El volumen total de datos y el número de objetos que puede almacenar son ilimitados. El tamaño de los objetos individuales de Amazon S3 puede variar entre un mínimo de 0 bytes y un máximo de 5 terabytes. El objeto más grande que se puede cargar en un solo PUT es de 5 gigabytes. Para objetos con un tamaño superior a los 100 megabytes, los clientes deben pensar en utilizar la capacidad de carga multiparte.

P: ¿Qué tipos de almacenamiento ofrece Amazon S3?

Amazon S3 ofrece varios tipos de almacenamiento diseñados para distintos casos de uso. Estas son: S3 Estándar para el almacenamiento de datos de uso general a los que se obtiene acceso con frecuencia; S3 Intelligent-Tiering para datos con patrones de acceso desconocidos o cambiantes; S3 Estándar - Acceso poco frecuente y S3 Única zona - Acceso poco frecuente para datos de larga duración, pero de acceso menos frecuente; y Amazon S3 Glacier (S3 Glacier) y Amazon S3 Glacier Deep Archive (S3 Glacier Deep Archive) para el archivo a largo plazo y la conservación digital. Si tiene requisitos de residencia de datos con los que no puede cumplir en una región de AWS existente, puede usar el tipo de almacenamiento S3 Outposts para almacenar sus datos de S3 en las instalaciones. Puede obtener más información sobre estos tipos de almacenamiento en la página tipos de almacenamiento de Amazon S3

P: ¿Puedo tener un bucket con diferentes objetos en distintos tipos de almacenamiento?

Sí, puede tener un bucket de S3 con diferentes objetos almacenados en S3 Estándar, S3 Intelligent-Tiering, S3 Estándar - Acceso poco frecuente y S3 Única zona - Acceso poco frecuente.

P: ¿Qué hace Amazon con los datos que guardo en Amazon S3?

Amazon almacena sus datos y realiza un seguimiento del uso asociado para calcular su factura. Amazon no obtendrá acceso a sus datos con ningún fin que no sea la oferta Amazon S3, a excepción de cuando la ley así lo exija. Consulte el acuerdo de licencia de Amazon Web Services para obtener más información.

P: ¿Amazon almacena sus propios datos en Amazon S3?

Sí. Los desarrolladores de Amazon utilizan Amazon S3 para diversos proyectos. Muchos de estos proyectos utilizan Amazon S3 como almacén de datos autorizado y confían en este servicio para operaciones de vital importancia para su negocio.

P: ¿De qué forma están organizados los datos en Amazon S3?

Amazon S3 es un sencillo almacenamiento de objetos basado en claves. Cuando almacena datos, asigna una clave de objeto única que puede utilizarse posteriormente para recuperar los datos. Las claves pueden ser cualquier cadena y pueden crearse de forma que imiten atributos jerárquicos. Opcionalmente, puede usar el etiquetado de objetos de S3 para organizar los datos en todos los prefijos o buckets de S3.

P: ¿Cómo interactúo con Amazon S3?

Amazon S3 ofrece una sencilla interfaz de servicio web REST basada en estándares que está diseñada para funcionar con cualquier conjunto de herramientas de desarrollo basado en Internet. Las operaciones se simplificaron de forma intencionada para facilitar la tarea de incorporar nuevos protocolos de distribución y capas funcionales.

P: ¿Qué nivel de fiabilidad ofrece Amazon S3?

Amazon S3 concede acceso a todos los desarrolladores a la misma infraestructura de almacenamiento de datos económica, ágil y con alto nivel de escalabilidad y fiabilidad que utiliza Amazon para ejecutar su propia red global de sitios web. El tipo de almacenamiento S3 Estándar está diseñado para una disponibilidad del 99,99 %; S3 Estándar - Acceso poco frecuente y S3 Intelligent-Tiering para un 99,9 %; S3 Única Zona - Acceso poco frecuente para un 99,5 %; S3 Glacier y S3 Glacier Deep Archive para un 99,99 % y un acuerdo de nivel de servicio de 99,9 %. Todos estos tipos de almacenamiento cuentan están incluidos en el Acuerdo de nivel de servicio de Amazon S3.

P: ¿Cómo se desempeñará Amazon S3 durante los picos de tráfico repentinos de mi aplicación?

Amazon S3 se diseñó desde un primer momento para administrar tráfico de cualquier aplicación de Internet. El sistema de precios de pago según el uso y la capacidad ilimitada garantizan que los costos incrementales no cambiarán y que el servicio no se verá interrumpido. Las enormes posibilidades de escalabilidad de Amazon S3 nos permiten dividir la carga de forma equitativa para que ninguna aplicación se vea afectada por los picos de tráfico.

P: ¿Amazon S3 ofrece un acuerdo de nivel de servicio (SLA)?

Sí. El acuerdo de nivel de servicio de Amazon S3 prevé un crédito de servicio si el porcentaje de tiempo de actividad mensual de un cliente es inferior a nuestro compromiso de servicio en cualquier ciclo de facturación.

P: ¿Cuál es el modelo de consistencia para Amazon S3?

Amazon S3 brinda automáticamente, al mismo costo, una sólida consistencia de lectura tras escritura, sin modificar el rendimiento o la disponibilidad y sin sacrificar el aislamiento regional de las aplicaciones.

Después de escribir correctamente en un objeto nuevo o sobrescribir en uno existente, cualquier solicitud de lectura posterior recibe inmediatamente la versión más reciente del objeto. S3 también ofrece una consistencia sólida para operaciones de listado de modo que, después de la escritura, puede realizar de inmediato una enumeración de los objetos de un bucket y todos los cambios se verán reflejados.

P: ¿Cuál es el beneficio de una sólida consistencia de lectura tras escritura?

Una sólida consistencia de lectura tras escritura es útil cuando necesita leer un objeto inmediatamente después de una escritura. Por ejemplo, una sólida consistencia de lectura tras escritura es importante si suele leer y enumerar objetos inmediatamente después de escribir. Las cargas de trabajo de informática de alto rendimiento también se benefician ya que, cuando un objeto se sobrescribe y luego se lee muchas veces simultáneamente, una sólida consistencia de lectura tras escritura asegura que la última escritura pueda leerse en todas las lecturas. Estas aplicaciones se benefician de manera automática e inmediata de una sólida consistencia de lectura tras escritura. La sólida consistencia de S3 también reduce los costos al eliminar la necesidad de infraestructura adicional para brindar sólida consistencia.  

Regiones de AWS

P: ¿Dónde se almacenan mis datos?

Cuando crea el bucket de Amazon S3, debe especificar una región de AWS. Para los tipos de almacenamiento S3 Estándar, S3 Estándar - Acceso poco frecuente y S3 Glacier, los objetos se almacenan automáticamente en varios dispositivos distribuidos en un mínimo de tres zonas de disponibilidad, cada uno separado por kilómetros en una región de AWS. Los objetos almacenados en el tipo de almacenamiento S3 Única zona – Acceso poco frecuente se almacenan de manera redundante en una única zona de disponibilidad en la región de AWS que usted selecciona. Para S3 en Outposts, sus datos se almacenan en su entorno Outpost en las instalaciones, a menos que elija manualmente transferirlo a una región de AWS. Consulte Productos y servicios por región para obtener información sobre la disponibilidad del servicio de Amazon S3 por región de AWS.

P: ¿Qué es una región de AWS?

Una región de AWS es una ubicación geográfica en la que AWS suministra varias zonas de disponibilidad, físicamente separadas y aisladas, que se conectan mediante redes de baja latencia y alto nivel de procesamiento y redundancia.

P: ¿Qué es una zona de disponibilidad (AZ) de AWS?

Una zona de disponibilidad de AWS es una ubicación aislada físicamente dentro de una región de AWS. Dentro de cada región de AWS, S3 funciona en al menos tres zonas de disponibilidad, con kilómetros de distancia entre sí a fin de ofrecer protección contra eventos como incendios, inundaciones, etc.

Los tipos de almacenamiento Amazon S3 Estándar, S3 Estándar - Acceso poco frecuente y S3 Glacier replican datos en un mínimo de tres zonas de disponibilidad para brindar protección contra la pérdida de una zona entera. Esto se aplica igualmente en regiones en las que se encuentran disponibles públicamente menos de tres zonas de disponibilidad. Es posible acceder a los objetos que se almacenan en estos tipos de almacenamiento desde todas las zonas de disponibilidad de una región de AWS.

El tipo de almacenamiento Única zona - Acceso poco frecuente de Amazon S3 replica los datos dentro de una única zona de disponibilidad. Los datos almacenados en S3 Única zona - Acceso poco frecuente no son resistentes a la pérdida física de una zona de disponibilidad como consecuencia de catástrofes, como terremotos e inundaciones.

P: ¿Cómo debo decidir en qué región de AWS almacenar mis datos?

Debe tener en cuenta diversos factores en función de la aplicación. Puede ser conveniente almacenar sus datos en una región que…

  • …esté cerca de sus clientes, sus centros de datos o sus otros recursos de AWS para reducir las latencias de acceso a los datos.
  • …sea más remota con respecto a otras operaciones para conseguir redundancia geográfica y capacidad de recuperación de desastres.
  • …le permita afrontar requisitos legales y de normativa específicos.
  • …le permita reducir los costos de almacenamiento. Puede seleccionar una región con un precio inferior para reducir costos. Para obtener información sobre los precios de S3, visite la página de precios de S3.

P: ¿En qué partes del mundo se encuentra disponible Amazon S3?

Amazon S3 se encuentra disponible en todas las regiones de AWS en el mundo y puede usarlo independientemente de cuál sea su ubicación. Simplemente tiene que decidir en qué región (o regiones) de AWS desea almacenar los datos de Amazon S3. Consulte la tabla de disponibilidad por región de AWS para obtener una lista de las regiones de AWS en las que S3 se encuentra actualmente disponible.

Facturación

P: ¿Cuánto cuesta Amazon S3?

Con Amazon S3 paga únicamente por lo que usa. No hay un cargo mínimo. Puede realizar una estimación de su factura mensual con la calculadora de precios de AWS.

Cobramos menos cuando nuestros costos son menores. Algunos precios varían en función de la región de Amazon S3. Los precios de facturación se basan en la ubicación de su bucket de S3. No existe ningún cargo por la transferencia de datos que se encuentran en una región de Amazon S3 a través de una solicitud COPY. Los datos transferidos entre las regiones de AWS a través de una solicitud COPY se cobran conforme a las tarifas especificadas en la sección de precios de la página de detalles de Amazon S3. No se aplica ningún cargo por transferencia de datos entre Amazon EC2 (o cualquier servicio de AWS) y Amazon S3 dentro de la misma región, por ejemplo datos transferidos dentro de la región EE. UU. Este (Norte de Virginia). Sin embargo, los datos transferidos entre Amazon EC2 (o cualquier servicio de AWS) y Amazon S3 en todas las demás regiones se cobran según las tarifas especificadas en la página de precios de Amazon S3. Por ejemplo, los datos transferidos entre Amazon EC2 de la región EE. UU. Este (Norte de Virginia) y Amazon S3 de la región EE. UU. Oeste (Norte de California). Para conocer los precios de S3 en Outposts, visite la página de precios de Outposts.

P: ¿Cómo se cobra y factura el uso de Amazon S3?

No se requieren cuotas de configuración ni compromisos para comenzar a utilizar el servicio. A final de mes, se cobrará automáticamente en su tarjeta de crédito el uso de ese mes. Puede ver los cargos del periodo de facturación actual en cualquier momento en el sitio Web de Amazon Web Services si inicia sesión en su cuenta de Amazon Web Services y hace clic en Consola de facturación y de administración de costos, en Su cuenta de servicios web.

Gracias a la capa de uso gratuita de AWS*, puede comenzar a utilizar Amazon S3 de forma gratuita en todas las regiones, excepto en las regiones de AWS GovCloud. Al registrarse, los clientes nuevos de AWS reciben 5 GB de almacenamiento estándar en Amazon S3, 20 000 solicitudes Get, 2000 solicitudes Put y 15 GB de transferencia de datos saliente (hacia Internet, otras regiones de AWS o CloudFront) al mes durante un año. El uso mensual no utilizado no se acumula para el siguiente mes.

Amazon S3 le cobra por los siguientes tipos de uso. Tenga en cuenta que los siguientes cálculos presuponen que no se está utilizando la capa gratuita de AWS.

Almacenamiento utilizado:

Los precios de almacenamiento de Amazon S3 se resumen en la página de precios de Amazon S3.

El volumen de almacenamiento facturado en un mes se corresponde con la media del almacenamiento utilizado durante todo el mes. Esto incluye todos los metadatos y datos de objeto almacenados en buckets que haya creado en su cuenta de AWS. Medimos su uso en “TimedStorage-ByteHrs”, y se suman a final de mes para generar sus cargos mensuales.

Ejemplo de almacenamiento:

Supongamos que almacena 100 GB (107 374 182 400 bytes) de datos en el tipo estándar de Amazon S3 en su bucket durante 15 días en marzo y 100 TB (109 951 162 777 600 bytes) de datos en el tipo estándar de Amazon S3 durante los últimos 16 días de marzo.

A finales de marzo habrá realizado el siguiente uso en bytes por hora: uso total de bytes por hora = [107 374 182 400 bytes x 15 días x (24 horas/día)] + [109 951 162 777 600 bytes x 16 días x (24 horas/día)] = 42 259 901 212 262 400 bytes por hora. Calcule las horas en función del número real de días en un mes determinado. Por ejemplo, en nuestro ejemplo utilizamos marzo que tiene 31 días o 744 horas.

Convirtamos esto a GB/mes: 42 259 901 212 262 400 bytes por hora/1 073 741 824 bytes por GB/744 horas al mes = 52 900 GB/mes

Este volumen de uso cruza dos capas de volumen diferentes. El precio mensual del almacenamiento se calcula a continuación suponiendo que los datos se almacenan en la región de EE.UU. Este (Norte de Virginia): capa de 50 TB: 51 200 GB x 0,023 USD = 1177,60 USD, capa de 50 TB a 450 TB: 1700 GB x 0,022 USD = 37,40 USD

Cuota de almacenamiento total = 1177,60 USD + 37,40 USD = 1215,00 USD

Transferencia entrante de datos de red:

Los precios de la transferencia de datos entrantes de Amazon S3 se resumen en la página de precios de Amazon S3. Esto representa la cantidad de datos enviados a los buckets de Amazon S3. 

Transferencia saliente de datos de red:

Los precios de la transferencia de datos salientes de Amazon S3 se resumen en la página de precios de Amazon S3. Para Amazon S3, este cargo se aplica siempre que se leen datos de cualquiera de sus buckets desde una ubicación situada fuera de esa región de Amazon S3 concreta.

Las capas de precios de la transferencia saliente de datos tienen en cuenta el total de sus transferencias salientes de datos de una determinada región a Internet para los servicios Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS y Amazon VPC. Estas capas no se aplican a las transferencias salientes de datos de Amazon S3 de una región de AWS a otra.

Ejemplo de transferencia saliente de datos:
Supongamos que transfiere 1 TB de datos de Amazon S3 de la región de EE.UU. Este (Norte de Virginia) a Internet cada día durante un mes de 31 días. Supongamos que también transfiere 1 TB de datos de una instancia de Amazon EC2 de la misma región a Internet durante el mismo mes de 31 días.

Su transferencia de datos sumada sería de 62 TB (31 TB de Amazon S3 y 31 TB de Amazon EC2). Esto equivale a 63 488 GB (62 TB * 1 024 GB/TB).

Este volumen de uso cruza tres capas de volumen diferentes. La cuota de transferencia de datos saliente mensual se calcula a continuación presuponiendo que se produce en la región de EE.UU. Este (Norte de Virginia):
Capa de 10 TB: 10 239 GB (10×1 024 GB/TB – 1 (gratis)) x 0,09 USD = 921,51 USD
Capa de 10 TB a 50 TB: 40 960 GB (40×1024) x 0,085 USD = 3 481,60 USD
Capa de 50 TB a 150 TB: 12 288 GB (resto) x 0,070 USD = 860,16 USD

Cuota de transferencia de datos saliente total = 921,51 USD + 3 481,60 USD + 860,16 USD = 5 263,27 USD

Solicitudes de datos:

Los precios de las solicitudes de Amazon S3 se resumen en la tabla de precios de Amazon S3.

Ejemplo de solicitud:
Supongamos que transfiere 10 000 archivos a Amazon S3 y 20 000 archivos desde Amazon S3 cada día durante el mes de marzo. Luego, elimina 5000 archivos el 31 de marzo.
Total de solicitudes PUT = 10 000 solicitudes x 31 días = 310 000 solicitudes
Total de solicitudes GET = 20 000 solicitudes x 31 días = 620 000 solicitudes
Total de solicitudes DELETE = 5000×1 día = 5000 solicitudes

Suponiendo que su bucket se encuentra en la región de EE.UU. Este (Norte de Virginia), las cuotas de solicitud se calculan de la siguiente forma:
310 000 solicitudes PUT: 310 000 solicitudes x 0,005 USD/1000 = 1,55 USD
620 000 solicitudes GET: 620 000 solicitudes x 0,004 USD/10 000 = 0,25 USD
5000 solicitudes DELETE = 5000 solicitudes x 0,00 USD (gratis) = 0,00 USD

Recuperación de datos:

Los precios de recuperación de datos de Amazon S3 se aplican a los tipos de almacenamiento S3 Estándar - Acceso poco frecuente y S3 Única zona - Acceso poco frecuente y se resumen en la página de precios de Amazon S3.

Ejemplo de recuperación de datos:
Supongamos que en un mes recupera 300 GB del tipo S3 Estándar – Acceso poco frecuente, de los cuales 100 GB se envían a Internet, 100 GB a EC2 en la misma región de AWS y 100 GB a CloudFront en la misma región de AWS.

Las tarifas de recuperación de datos al mes se calcularían de este modo: 300 GB x 0,01 USD por GB = 3,00 USD. Tenga en cuenta que también debería abonar las tarifas de transferencia de datos de red para los datos enviados a Internet.

Consulte aquí para obtener información detallada sobre la facturación de objetos archivados en Amazon S3 Glacier.

** El uso de la capa gratuita se calcula cada mes en todas las regiones, excepto en la región de AWS GovCloud, y se aplica a su factura de manera automática; no se acumulará el uso mensual no consumido. Se aplican restricciones; consulte las condiciones de la oferta para obtener más información.

P: ¿Por qué varían los precios en función de la región de Amazon S3 que elija?

Cobramos menos cuando nuestros costos son menores. Por ejemplo, nuestros costos son más bajos en la región EE.UU. Este (Norte de Virginia) que en la región EE.UU. Oeste (Norte de California).

P: ¿Cómo se cobra el uso del control de versiones?

A toda versión de un objeto almacenado o solicitado de Amazon S3 se le aplican las tarifas normales. Por ejemplo, observemos el siguiente caso para ilustrar los costos de almacenamiento cuando se utiliza el control de versiones (supongamos que el mes actual tiene 31 días):

1) Día 1 del mes: realiza una operación PUT de 4 GB (4 294 967 296 bytes) en su bucket.
2) Día 16 del mes: realiza una operación PUT de 5 GB (5 368 709 120 bytes) dentro del mismo bucket de datos utilizando la misma clave que la operación PUT original del día 1.

Al analizar los costos de almacenamiento de las operaciones anteriores, debe tener en cuenta que el objeto de 4 GB del día 1 no se elimina del bucket cuando se escribe el objeto de 5 GB el día 15. En su lugar, el objeto de 4 GB se conserva como una versión más antigua, y el objeto de 5 GB pasa a ser la versión más recientemente escrita dentro del objeto que se encuentra en su bucket. A finales de mes:

Uso total de byte-hora
[4 294 967 296 bytes x 31 días x (24 horas/día)] + [5 368 709 120 bytes x 16 días x (24 horas/día)] = 5 257 039 970 304 byte-horas.

Conversión a GB/mes totales
5 257 039 970 304 bytes por hora x (1 GB/1 073 741 824 bytes) x (1 mes/744 horas) = 6,581 GB/mes

La tarifa se calcula en función de las tasas vigentes para su región que aparecen en la página de precios de Amazon S3.

P: ¿Cómo se cobra el acceso a Amazon S3 a través de la consola de administración de AWS?

Al obtener acceso al servicio a través de la consola de administración de AWS se aplica la estructura de precios normal de Amazon S3. Para proporcionar una experiencia optimizada, la consola de administración de AWS puede ejecutar las solicitudes de forma proactiva. Además, algunas operaciones interactivas derivan en más de una solicitud al servicio.

P: ¿Cómo se cobra el acceso a buckets de Amazon S3 desde otra cuenta de AWS?

Se aplica el precio normal de Amazon S3 cuando se accede a su almacenamiento de información desde otra cuenta de AWS. Opcionalmente, puede optar por configurar su bucket como pago por solicitante, en cuyo caso el solicitante pagará el costo de las solicitudes y descargas de sus datos de Amazon S3.

Puede encontrar más información sobre las configuraciones del bucket de pago por solicitante en la documentación de Amazon S3.

P: ¿Los precios incluyen impuestos?

Si no se especifica lo contrario, nuestros precios no incluyen los impuestos ni gravámenes correspondientes, como el IVA y cualquier otro impuesto sobre las ventas. En el caso de los clientes con una dirección de facturación de Japón, el uso de los servicios de AWS está sujeto al impuesto de consumo nipón.

Más información sobre impuestos en los servicios de AWS »

Amazon S3 e IPv6

P: ¿Qué es IPv6?

Cada servidor y dispositivo conectado a Internet debe poseer una dirección única. El protocolo de Internet versión 4 (IPv4) era el esquema de direccionamiento de 32 bits original. Sin embargo, el constante crecimiento de Internet significa que con el tiempo se utilizarán todas las direcciones IPv4. El protocolo de Internet versión 6 (IPv6) es un mecanismo de direccionamiento diseñado para superar las limitaciones de direcciones globales de IPv4.

P: ¿Qué puedo hacer con IPv6?

Gracias a la compatibilidad de Amazon S3 con IPv6, las aplicaciones pueden conectarse a Amazon S3 sin necesidad de ningún software o sistema de traducción de IPv6 a IPv4. Puede satisfacer los requisitos de conformidad, integrarse con aplicaciones locales existentes basadas en IPv6 de forma más sencilla y eliminar la necesidad de costoso equipo de red que se ocupe de la traducción de direcciones. Ahora también puede utilizar las características de filtrado de dirección de origen existentes de las políticas de IAM y políticas de bucket con direcciones IPv6, lo que le proporciona más opciones a la hora de proteger las aplicaciones que interactúan con Amazon S3.

P: ¿Cómo puedo comenzar a usar IPv6 en Amazon S3?

Puede comenzar apuntando su aplicación a un nuevo punto de enlace de la “pila doble” de Amazon S3 compatible con IPv4 e IPv6. En la mayoría de los casos, no será necesario hacer ninguna configuración adicional para el acceso a través de IPv6, ya que la mayoría de los clientes de red prefieren las direcciones IPv6 por defecto. Las aplicaciones afectadas por el uso de IPv6 pueden pasarse de nuevo a puntos de enlace estándar de solo IPv4 en cualquier momento. IPv6 con Amazon S3 es compatible en todas las regiones comerciales de AWS, incluidas las regiones GovCloud (EE. UU.) de AWS, la región de Amazon Web Services China (Pekín), operada por Sinnet, y la región de Amazon Web Services China (Ningxia), operada por NWCD. 

P: ¿Debería esperar un cambio en el rendimiento de Amazon S3 al utilizar IPv6?

No, el rendimiento que observe será el mismo tanto si utiliza IPv4 como IPv6 con Amazon S3.

Notificación de eventos

P: ¿Qué son las notificaciones de eventos de Amazon S3?

Las notificaciones de eventos de Amazon S3 se pueden enviar en respuesta a acciones que se han llevado a cabo en Amazon S3, como solicitudes PUT, POST, COPY o DELETE. Los mensajes de notificación se pueden enviar mediante Amazon SNS, Amazon SQS o directamente a AWS Lambda.

P: ¿Qué puedo hacer con las notificaciones de eventos de Amazon S3?

Las notificaciones de eventos de S3 le permiten ejecutar flujos de trabajo, enviar alertas o realizar otras acciones en respuesta a los cambios que se produzcan en los objetos almacenados en Amazon S3. Puede utilizar las notificaciones de S3 para configurar activadores que realicen acciones, como la transcodificación de archivos multimedia cuando se carguen, el procesamiento de archivos de datos cuando estén disponibles y la sincronización de objetos de S3 con otros almacenes de datos. También puede configurar notificaciones de eventos a partir de prefijos y sufijos del nombre del objeto. Por ejemplo, puede elegir recibir notificaciones de nombres de objetos que empiecen por “images/”.

P: ¿Qué se incluye en una notificación de eventos de Amazon S3?

Para obtener una descripción detallada de la información que se incluye en los mensajes de notificación de eventos de Amazon S3, consulte el tema sobre Configuración de notificaciones de eventos de Amazon S3 de la Guía para desarrolladores de Amazon S3.

P: ¿Cómo se configuran las notificaciones de eventos de Amazon S3?

Para obtener una descripción detallada sobre cómo configurar las notificaciones de eventos, consulte el tema sobre Configuración de notificaciones de eventos de Amazon S3 de la Guía para desarrolladores de Amazon S3. Puede obtener más información sobre los servicios de mensajería de AWS en la documentación de Amazon SNS y en la documentación de Amazon SQS.

P: ¿Cuánto cuesta utilizar las notificaciones de eventos de Amazon S3

No se aplica ningún cargo adicional por utilizar las notificaciones de eventos de Amazon S3. Solo tiene que pagar por utilizar Amazon SNS o Amazon SQS para la entrega de las notificaciones de eventos o por el costo que supone la ejecución de la función de AWS Lambda. Visite las páginas de precios de Amazon SNS, Amazon SQS o AWS Lambda para consultar la información sobre los precios de estos servicios.

Amazon S3 Transfer Acceleration

P: ¿Qué es S3 Transfer Acceleration?

Amazon S3 Transfer Acceleration facilita la transferencia rápida, sencilla y segura de archivos a largas distancias entre su cliente y su bucket de Amazon S3. S3 Transfer Acceleration aprovecha las ubicaciones de borde de AWS de Amazon CloudFront distribuidas por todo el mundo. A medida que los datos llegan a una ubicación de borde de AWS, se enrutan al bucket de Amazon S3 a través de una ruta de red optimizada.

P: ¿Cómo puedo comenzar a usar S3 Transfer Acceleration?

Para empezar a usar S3 Transfer Acceleration active S3 Transfer Acceleration en un bucket de S3 con la consola de Amazon S3, la API de Amazon S3 o la CLI de AWS. Una vez activado S3 Transfer Acceleration, puede dirigir las solicitudes PUT y GET de Amazon S3 al nombre de dominio del punto de enlace s3-accelerate. La aplicación de transferencia de datos debe usar uno de los siguientes dos tipos de extremos para acceder al bucket y transferir los datos con mayor rapidez: .s3-accelerate.amazonaws.com r .s3-accelerate.dualstack.amazonaws.com para el punto de enlace “dual-stack”. Si desea utilizar la transferencia de datos estándar, puede continuar utilizando los puntos de enlace habituales.

Existen determinadas restricciones en relación con los buckets que admitirán S3 Transfer Acceleration. Para obtener más información, consulte la Guía para desarrolladores de Amazon S3.

P: ¿Cuál es la velocidad de S3 Transfer Acceleration?

S3 Transfer Acceleration lo ayuda a utilizar la totalidad de su ancho de banda, lo que reduce los efectos de la distancia en el procesamiento, y está diseñado para garantizar una transferencia de datos rápida y uniforme a Amazon S3 independientemente de dónde se encuentre su cliente. El grado de aceleración depende principalmente del ancho de banda del que disponga, de la distancia entre el origen y el destino, y de las tasas de pérdida de paquetes en la ruta de red. Por lo general, observará mayor aceleración cuando el origen se encuentre a mayor distancia del destino, cuando se disponga de más ancho de banda o cuando el tamaño del objeto sea mayor.

Un cliente midió una reducción de 50% en el tiempo medio que tardaba en introducir archivos de 300 MB de una base de usuarios global repartidos por Estados Unidos, Europa y partes de Asia a un bucket en la región Asia Pacífico (Sídney). Otro cliente observó casos en los que el desempeño incrementó más del 500% cuando usuarios del Sureste de Asia y de Australia cargaban archivos de 250 MB (en partes de 50 MB) en un bucket de S3 en la región EE.UU. Este (Norte de Virginia).

Pruebe la herramienta de comparación de velocidad para obtener una vista previa de la mejora en el rendimiento que podría obtener desde su ubicación.

P: ¿Quién debería utilizar S3 Transfer Acceleration?

S3 Transfer Acceleration está diseñado para optimizar las velocidades de transferencia desde cualquier parte del mundo a buckets de S3. Si desea cargar datos a un bucket centralizado desde ubicaciones dispersas geográficamente o si transfiere GB o TB de datos de forma frecuente entre continentes, podrá reducir los tiempos de transferencias en horas o incluso días con S3 Transfer Acceleration.

P: ¿Cuán seguro es S3 Transfer Acceleration?

S3 Transfer Acceleration proporciona el mismo nivel de seguridad que las transferencias convencionales a Amazon S3. Además, admite todas las características de seguridad de Amazon S3, como la restricción del acceso a partir de la dirección IP de un cliente. S3 Transfer Acceleration se comunica con los clientes a través de un TCP estándar y no es necesario realizar cambios al firewall. Nunca se guardan datos en las ubicaciones de borde de AWS.

P: ¿Qué sucede si S3 Transfer Acceleration no es más rápido que una transferencia convencional de Amazon S3?

Cada vez que utiliza S3 Transfer Acceleration para cargar un objeto, comprobaremos si es probable que sea más rápido que una transferencia convencional de Amazon S3. Si determinamos que no es probable que S3 Transfer Acceleration sea más rápido que una transferencia convencional de Amazon S3 para el mismo objeto y la misma región de AWS de destino, no le cobraremos el uso de S3 Transfer Acceleration para esa transferencia y podremos omitir el sistema S3 Transfer Acceleration para dicha carga.

P: ¿Puedo utilizar S3 Transfer Acceleration para cargas multiparte?

Sí, S3 Transfer Acceleration es compatible con todas las características a nivel de bucket, incluidas las cargas multiparte.

P: ¿Qué debería elegir, S3 Transfer Acceleration o PUT/POST de Amazon CloudFront?

S3 Transfer Acceleration optimiza el protocolo TCP y agrega inteligencia adicional entre el cliente y el bucket de S3, por lo que resulta una mejor opción si se desea un nivel de procesamiento elevado. Si tiene objetos de tamaño inferior a 1 GB o si el conjunto de datos tiene un tamaño inferior a 1 GB, debería considerar el uso de los comandos PUT/POST Amazon CloudFront para lograr un desempeño óptimo.

P: ¿Cómo puedo saber si debo elegir S3 Transfer Acceleration o la familia de productos AWS Snow (Snowball, Snowball Edge y Snowmobile)?

La familia de productos AWS Snow es ideal para clientes que desean trasladar grandes volúmenes de datos de una sola vez. Normalmente, el proceso de la AWS Snowball tarda en completarse entre unos 5 y 7 días. Por lo general, S3 Transfer Acceleration puede transferir hasta 75 TB al mismo tiempo, si se dispone de la capacidad total de una línea de 1 Gbps. Por ello, si se tardaría más de una semana en realizar la transferencia por Internet, o se van a realizar tareas de transferencia periódicas y se dispone de más de 25 Mbps de ancho de banda disponible, S3 Transfer Acceleration es una buena opción. Otra opción consiste en usar ambos: realizar las tareas pesadas iniciales con AWS Snowball (o varios AWS Snowball) y, a continuación, transferir los cambios graduales constantes con S3 Transfer Acceleration.

P: ¿S3 Transfer Acceleration puede complementar a AWS Direct Connect?

AWS Direct Connect es una buena opción para clientes que tienen un requisito de red privada o tienen acceso a intercambios de AWS Direct Connect. S3 Transfer Acceleration es más adecuado para enviar datos de ubicaciones de clientes distribuidas a través del Internet público, o cuando las variaciones en el estado de la red resultan en un procesamiento insuficiente. Algunos clientes de AWS Direct Connect utilizan S3 Transfer Acceleration para ayudar con las transferencias de oficinas remotas si estas disponen de conexiones a Internet de escaso desempeño.

P: ¿S3 Transfer Acceleration puede complementar a AWS Storage Gateway o a una gateway de un tercero?

Si puede configurar el destino del bucket en su gateway de un tercero para que use un nombre de dominio del punto de enlace de S3 Transfer Acceleration, observará los beneficios.

Visite la sección Archivos de las preguntas frecuentes sobre Storage Gateway para obtener más información sobre la implementación de AWS.

P: ¿S3 Transfer Acceleration puede complementar el software integrado de terceros?

Sí. Los paquetes de software que se conectan directamente con Amazon S3 pueden aprovechar S3 Transfer Acceleration cuando envían tareas a Amazon S3.

Obtenga más información sobre soluciones de socios de almacenamiento »

P: ¿S3 Transfer Acceleration cumple los requisitos de HIPAA?

Sí, AWS amplió su programa de conformidad con HIPAA para incluir Amazon S3 Transfer Acceleration como un servicio compatible con HIPAA. Si tiene un Acuerdo de Asociado de Negocios (BAA) con AWS, puede usar Amazon S3 Transfer Acceleration para realizar transferencias de archivos seguras, rápidas y simples, entre ellas, de información de salud protegida (PHI) entre distancias importantes entre su cliente y su bucket de Amazon S3.

Más información sobre la conformidad con HIPAA »

Seguridad

P: ¿Cuán seguros están mis datos en Amazon S3?     

Amazon S3 es seguro de forma predeterminada. Al momento de crearse, solo los propietarios del recurso tienen acceso a los recursos de Amazon S3 que crean. Amazon S3 admite la autenticación de usuario para controlar el acceso a los datos. Puede obtener acceso a los mecanismos de control de acceso, como por ejemplo las políticas de bucket y las listas de control de acceso (ACL) para conceder permisos de manera selectiva a los usuarios y grupos de usuarios. La consola de Amazon S3 destaca sus buckets con acceso público, indica la fuente de accesibilidad pública y también advierte si los cambios en sus políticas de bucket o ACL de bucket harían que su bucket sea accesible públicamente. Debe habilitar Bloquear acceso público en todas las cuentas y buckets a las que no quiere que se puedan acceder públicamente. 

Puede cargar y descargar de forma segura los datos en Amazon S3 a partir de puntos de enlace SSL con el protocolo HTTPS. Si necesita protección adicional, puede usar la opción de cifrado del lado del servidor (SSE) para cifrar los datos almacenados en reposo. Puede configurar sus buckets de Amazon S3 para cifrar objetos de manera automática antes de almacenarlos si las solicitudes de almacenamiento entrantes no tienen ninguna información de cifrado. Opcionalmente, puede usar sus propias bibliotecas de cifrado para cifrar datos antes de almacenarlos en Amazon S3.

Para obtener más información sobre seguridad en AWS, consulte la página de seguridad de AWS y para obtener información sobre seguridad de S3, visite la página de seguridad de S3 o la guía de prácticas recomendadas de seguridad de S3.

P: ¿Cómo puedo controlar el acceso a los datos que tengo almacenados en Amazon S3?

Los clientes tienen la posibilidad de utilizar cuatro mecanismos para controlar el acceso a los recursos de Amazon S3: políticas de Identity and Access Management (IAM), políticas de bucket, listas de control de acceso (ACL) y autenticación por cadena de consulta. IAM permite a las organizaciones con varios empleados crear y administrar diversos usuarios bajo una única cuenta de AWS. Gracias a las políticas de IAM, los clientes pueden conceder a los usuarios de IAM un control detallado de los objetos o buckets de Amazon S3 al mismo tiempo que conservan el control pleno de todas las acciones de los usuarios. Mediante las políticas de bucket los clientes pueden definir reglas que se aplican ampliamente a todas las solicitudes que se realizan a sus recursos de Amazon S3, como por ejemplo conceder privilegios de escritura a un subconjunto de recursos de Amazon S3. Los clientes también pueden restringir el acceso basándose en un aspecto de la solicitud, como por ejemplo la referencia HTTP y la dirección IP. Con las ACL, los clientes podrán conceder permisos específicos (por ejemplo, READ, WRITE, FULL_CONTROL) a usuarios concretos sobre un objeto o bucket concreto. Mediante la autenticación por cadena de consulta, los clientes podrán crear una URL para un objeto de Amazon S3 que solo sea válida durante un período de tiempo limitado. Consulte el tema Control de acceso en la Guía para desarrolladores de Amazon S3 para obtener más información sobre las distintas políticas de control de acceso disponibles en Amazon S3.

P: ¿Amazon S3 admite la auditoría de acceso de datos?

Sí, los clientes pueden configurar de manera opcional un bucket de Amazon S3 para crear registros de acceso para todas las solicitudes creadas y destinadas a este. Opcionalmente, los clientes que necesiten obtener información sobre identidades de usuarios/IAM en sus registros pueden configurar AWS CloudTrail Data Events.

Estos registros de acceso se pueden utilizar con fines de auditoría y cuentan con información detallada acerca de la solicitud, como el tipo de solicitud, los recursos especificados en la solicitud y la hora y la fecha en la que se procesó.

P: ¿Qué opciones dispongo para cifrar los datos almacenados en Amazon S3?

Puede optar por cifrar los datos con SSE-S3, SSE-C, SSE-KMS o una biblioteca cliente como Amazon S3 Encryption Client. Estas cuatro opciones permiten almacenar datos sensibles, cifrados e inactivos en Amazon S3.

SSE-S3 es una solución integrada en la que Amazon se encarga de la administración y la protección de las claves con diferentes capas de seguridad. Seleccione SSE-S3 si prefiere que Amazon administre las claves.

SSE-C permite aprovechar las funciones de Amazon S3 para realizar el cifrado y el descifrado de los objetos, al tiempo que se conserva el control de las claves que se utilizan para cifrar objetos. Con SSE-C, no necesita implementar ni utilizar una biblioteca en el lado del cliente para realizar el cifrado y el descifrado de los objetos que almacene en Amazon S3, pero sí tiene que administrar las claves que envíe a Amazon S3 para cifrar y descifrar los objetos. Utilice SSE-C si desea conservar sus propias claves de cifrado y no desea implementar ni aprovechar una biblioteca de cifrado en el lado cliente.

Con SSE-KMS, puede utilizar AWS Key Management Service (AWS KMS) para administrar las claves de cifrado. Utilizar AWS KMS para la administración de sus claves conlleva otros beneficios adicionales. AWS KMS proporciona permisos independientes para usar la clave principal, lo que crea una capa de control adicional, así como protección contra el acceso no autorizado a sus objetos almacenados en Amazon S3. AWS KMS ofrece un registro de auditoría para que pueda consultar cuándo y quién ha utilizado su clave para obtener acceso a cada objeto, así como los intentos fallidos de usuarios sin permiso para obtener acceso a los datos y descifrarlos. Además, AWS KMS ofrece controles de seguridad adicionales que respaldan los esfuerzos de los clientes por cumplir con PCI-DSS, HIPAA/HITECH y los requisitos industriales de FedRAMP.

Si utiliza una biblioteca de cliente de cifrado, como Amazon S3 Encryption Client, mantendrá el control de las claves y realizará las tareas de cifrado y descifrado en objetos del lado del cliente con la biblioteca de cifrado que usted elija. Hay clientes que prefieren tener el control integral del cifrado y el descifrado de objetos para que, de este modo, solo se transmitan objetos cifrados por Internet a Amazon S3. Utilice una biblioteca del lado cliente si quiere mantener el control de las claves de cifrado, si puede implementar o utilizar una biblioteca de cifrado del lado cliente y si necesita cifrar los objetos antes de enviarlos a Amazon S3 para su almacenamiento.

Consulte el tema Uso de cifrado en la Guía para desarrolladores de Amazon S3 para obtener más información sobre el uso de Amazon S3 SSE-S3, SSE-C o SSE-KMS.

P: ¿Cumplo las normativas de privacidad de datos de la UE al utilizar Amazon S3?

Los clientes pueden optar por almacenar todos los datos en la UE si utilizan las regiones UE (Fráncfort), UE (Irlanda), UE (Londres) o UE (París). También puede usar S3 en Outposts para mantener todos sus datos en las instalaciones en el Outpost, y puede elegir transferir los datos entre Outposts o a una región de AWS. Es responsabilidad suya asegurarse de que cumple con las leyes de privacidad de la UE. Consulte el centro de AWS para el Reglamento General de Protección de Datos (RGPD) para obtener más información. Si tiene requisitos de ubicación más específicos u otras reglamentaciones de privacidad de datos que le exigen conservar sus datos en un lugar donde no haya región de AWS, puede usar S3 en Outposts.

P: ¿Qué es un punto de enlace de la VPC de Amazon para Amazon S3?

Un punto de enlace de la VPC de Amazon para Amazon S3 es una entidad lógica dentro de VPC que permite la conectividad a S3 a través de la red global de Amazon. Existen dos tipos de puntos de enlace de VPC para S3: de gateway y de interfaz. Los puntos de enlace de gateway son gateways que se especifican en la tabla de enrutamiento para acceder a S3 desde su VPC a través de la red de Amazon. Los puntos de enlace de interfaz extienden la funcionalidad de los puntos de enlace de gateway a través de IP privadas para enrutar solicitudes a S3 desde su VPC, el sistema en las instalaciones o una región de AWS diferente. Para obtener más información, consulte la documentación.

P: ¿Puedo permitir que un punto de enlace de la VPC de Amazon específico tenga acceso a mi bucket de Amazon S3?

Puede limitar el acceso a su bucket desde un punto de enlace de la VPC de Amazon específico o un conjunto de puntos de enlace mediante las políticas de buckets de Amazon S3. Las políticas de buckets S3 ahora admiten una condición, aws:sourceVpce, que puede usar para restringir el acceso. Para obtener más detalles y ejemplos de políticas, consulte Uso de los puntos de enlace de la VPC.

P: ¿Qué es AWS PrivateLink para Amazon S3?

AWS PrivateLink para S3 brinda conectividad privada entre Amazon S3 y el sistema en las instalaciones. Puede aprovisionar su VPC con puntos de enlace de VPC de interfaz para S3 para conectar sus aplicaciones en las instalaciones directamente a S3 a través de AWS Direct Connect o AWS VPN. Ya no necesita usar IP públicas, cambiar las reglas de firewall ni configurar un gateway de Internet para acceder a S3 desde el sistema en las instalaciones. Para obtener más información, consulte la documentación.

P: ¿Cómo puedo comenzar a usar los puntos de enlace de la VPC de interfaz para S3?

Puede crear un punto de enlace de la VPC de interfaz a través de la consola de administración de la VPC de AWS, la CLI de AWS, los SDK de AWS o la API. Para obtener más información, consulte la documentación.

P: ¿Cuándo debo elegir puntos de enlace de la VPC de gateway en lugar de puntos de enlace de la VPC de interfaz basados en AWS PrivateLink?

Se recomienda el uso de puntos de enlace de VPC de interfaz para acceder a S3 desde el sistema en las instalaciones o desde una VPC en otra región de AWS. Para recursos que acceden a S3 desde una VPC en la misma región de AWS que S3, se recomienda usar puntos de enlace de la VPC de gateway, ya que estos no se facturan. Para obtener más información, consulte la documentación.

P: ¿Puedo usar puntos de enlace de interfaz y de gateway para S3 en la misma VPC?

Sí. Si ya tiene un punto de enlace de VPC de gateway existente, cree un punto de enlace de VPC de interfaz en su VPC y actualice las aplicaciones de cliente con los nombres específicos de los puntos de enlace de VPC. Por ejemplo, si el ID de punto de enlace de VPC para el punto de enlace de interfaz es vpce-0fe5b17a0707d6abc-29p5708s en la región us-east-1, el nombre de DNS específico del punto de enlace será vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce.amazonaws.com. En este caso, solo las solicitudes para los nombres específicos de los puntos de enlace de la VPC se enrutarán a través de los puntos de enlace de la VPC de interfaz a S3, mientras que todas las demás solicitudes continuarían enrutándose a través del punto de enlace de la VPC de gateway. Para obtener más información, consulte la documentación.

P: ¿Qué es Amazon Macie y cómo puedo utilizarlo para proteger mis datos?

Amazon Macie es un servicio de seguridad con tecnología de IA que ayuda a evitar la pérdida de datos mediante la detección, clasificación y protección automáticas de la información confidencial almacenada en Amazon S3. Amazon Macie utiliza el aprendizaje automático para reconocer datos confidenciales, como información personalmente identificable (PII) o propiedad intelectual, asigna un valor empresarial y proporciona visibilidad de la ubicación donde se almacenan los datos y cómo se utilizan en su empresa. Amazon Macie monitorea la actividad de acceso a los datos constantemente en busca de anomalías y envía alertas cuando detecta un riesgo de acceso no autorizado o filtraciones de datos involuntarias.

Puede utilizar Amazon Macie para protegerse ante amenazas de seguridad gracias al monitoreo constante de los datos y las credenciales de cuenta. Amazon Macie le proporciona una manera sencilla y automatizada de descubrir y clasificar sus datos empresariales. Aporta controles mediante funciones de Lambda con plantillas para retirar el acceso o activar políticas de cambio de contraseña al descubrir comportamientos sospechosos o el acceso no autorizado a datos de entidades o aplicaciones de terceros. Cuando se generan alertas, puede usar Amazon Macie para responder a incidentes y utilizar Amazon CloudWatch Events para tomar medidas de manera rápida y proteger sus datos. Para obtener más información, consulte la Guía del usuario de Amazon Macie.

P: ¿Qué es el analizador de acceso para S3 y cómo funciona?

El analizador de acceso para S3 es una característica que controla las políticas de acceso a fin de garantizar que estas concedan únicamente el acceso previsto a los recursos de S3. El analizador de acceso para S3 evalúa sus políticas de acceso de su bucket y le permite detectar y reparar rápidamente los buckets con acceso potencialmente no previsto.

El analizador de acceso para S3 le avisa cuando tiene un bucket que está configurado para permitirle el acceso a cualquier persona en Internet o que se comparte con otras cuentas AWS. Recibe ideas o “conclusiones” dentro de la fuente y el nivel de acceso compartido o público. Por ejemplo, el analizador de acceso para S3 informará de manera proactiva si se brindó acceso no deseado de lectura o escritura a través de una Lista de control de acceso (ACL) o política de bucket. Con estas ideas, puede configurar o restaurar de manera inmediata la política de acceso deseado.

Cuando revisa los resultados que muestran el acceso potencialmente compartido a un bucket, puede Bloquear todo el acceso público a un bucket con un solo clic en la consola de administración de S3. También puede examinar a fondo las configuraciones de permisos de nivel de bucket para configurar niveles detallados de acceso. Para fines de auditoría, las conclusiones del analizador de acceso para S3 pueden descargarse como un informe CSV. Para obtener más información, consulte Analizador de acceso de IAM.

Puntos de acceso de S3

P: ¿Qué son los puntos de acceso de Amazon S3?

En la actualidad, los clientes administran el acceso a sus buckets S3 mediante una única política de bucket que controla el acceso para cientos de aplicaciones con distintos niveles de permisos.

Los puntos de acceso de Amazon S3 simplifican la administración del acceso de datos a escala para aplicaciones que utilizan conjuntos de datos compartidos en S3. Con los puntos de acceso de S3, ahora puede fácilmente crear cientos de puntos de acceso por bucket, representando un nuevo modo de suministrar acceso a conjuntos de datos compartidos. Los puntos de acceso proporcionan una ruta personalizada hacia un bucket, con un nombre de host único y una política de acceso que imponga los permisos específicos y los controles de red para cualquier solicitud realizada a través del punto de acceso. Para obtener más información, consulte la página de puntos de acceso de S3 y la guía de usuario.

P: ¿Por qué debería usar un punto de acceso?

Los puntos de acceso de S3 simplifican la forma de gestionar el acceso de su conjunto de aplicaciones a los conjuntos de datos compartidos en S3. Ya no es necesario que gestione una política única y compleja de buckets con cientos de reglas de permisos distintas que deben escribirse, leerse, controlarse y auditarse. Con los puntos de acceso de S3, ahora puede crear puntos de acceso específicos para cada aplicación y permitir el acceso a conjuntos de datos compartidos con políticas personalizadas para aplicaciones específicas.

Mediante el uso de puntos de acceso, puede descomponer una gran política de buckets en políticas de puntos de acceso separadas y discretas para cada aplicación que necesite acceder a los conjuntos de datos compartidos. Esto facilita que pueda centrarse en crear la política de acceso adecuada para una aplicación, sin que deba preocuparse por interrumpir la actividad de otras aplicaciones dentro del conjunto de datos compartidos. También puede crear una política de control de servicios (SCP) y requerir que todos los puntos de acceso estén restringidos a una Virtual Private Cloud (VPC), lo que protege sus datos con un firewall dentro de sus redes virtuales. 

¿Cómo funcionan los puntos de acceso de S3?

Cada punto de acceso de S3 está configurado con una política de acceso específica para un caso de uso o una aplicación, y un bucket puede tener cientos de puntos de acceso. Por ejemplo, puede crear un punto de acceso para su bucket S3 que conceda acceso a grupos de usuarios o aplicaciones para su lago de datos. Un punto de acceso podría admitir un solo usuario o aplicación o bien grupos de usuarios o aplicaciones. Asimismo, permite gestionar cada punto de acceso por separado. Cada punto de acceso está asociado con un bucket único y contiene un control de origen de red y un control de Block Public Access. Por ejemplo, puede crear un punto de acceso con un control de origen de red que solo permita acceso de almacenamiento desde su nube virtual privada, una sección aislada lógicamente de la nube de AWS. También puede crear un punto de acceso con la política de punto de acceso configurada para permitir solo el acceso a objetos con un prefijo definido, como por ejemplo “finanzas”.

Dado que cada punto de acceso contiene un nombre DNS único, ahora puede dirigirse a los buckets existentes y nuevos con el nombre que prefiera, siempre que sea único en la cuenta y la región de AWS. Gracias a los puntos de acceso restringidos a una VPC, ahora dispone de una forma fácil y auditable de asegurarse de que los datos de S3 permanecen en su VPC. Además, ahora puede usar las políticas de control de servicios de AWS para requerir que cualquier punto de acceso nuevo en su organización esté restringido a un acceso de solo VPC.

P: ¿Hay alguna cuota sobre cuántos puntos de acceso puedo crear?

De manera predeterminada, puede crear 1000 puntos de acceso por cuenta. A diferencia de los buckets de S3, no hay un límite estricto en el número de puntos de acceso por cuenta de AWS. Visite AWS Service Quotas para solicitar un aumento en esta cuota.

P: Cuando utilizamos un punto de acceso, ¿cómo se autorizan las solicitudes?

Los puntos de acceso S3 tienen su propia política de punto de acceso IAM. Usted escribe las políticas de punto de acceso que tal como lo haría con la política de bucket, utilizando el ARN del punto de acceso como recurso. Las políticas de punto de acceso pueden otorgar o restringir el acceso a los datos de S3 solicitados a través del punto de acceso. Amazon S3 evalúa todas las políticas de pertinentes, incluidas las políticas de control de servicios, de usuario, bucket, punto de acceso y punto de enlace de la VPC, así como las listas de control de acceso, a fin de decidir si se debe autorizar a solicitud.

P: ¿Cómo escribo las políticas de punto de acceso?

Puede escribir una política de punto de acceso del mismo modo que una política de bucket mediante reglas de IAM para controlar los permisos y el ARN de punto de acceso en el documento de la política.

P: ¿En qué se diferencia restringir el acceso a VPC específicos mediante controles de origen de red en puntos de acceso con restringir el acceso a los VPC utilizando la política de bucket?

Puede seguir utilizando las políticas de bucket para limitar el acceso de los buckets a VPC específicos. Los puntos de acceso proporciona un modo de auditoría más fácil para bloquear todos los datos o un subconjunto de ellos en un conjunto de datos compartidos para el tráfico único de VPC para todas las aplicaciones de su organización que utiliza controles de la API. Usted puede usar una política de control de servicios (SCP) de AWS Organizations para ordenar que ningún punto de acceso creado en su organización establezca el valor del parámetro API “control de origen de red” en “vpc”. Entonces, cualquier punto de acceso nuevo creado automáticamente restringe el acceso a los datos al tráfico único de VPC. No se requiere ninguna política de acceso adicional para asegurarse de que se procesaron solicitudes de datos únicamente de VPC especificadas.

P: ¿Puedo hacer cumplir una política de “Sin acceso a datos de Internet” para todos los puntos de acceso de mi organización?

Sí. Para hacer cumplir una política de “Sin acceso a datos de Internet” para los puntos de acceso de su organización, deberá asegurarse de que todos los puntos de acceso hagan cumplir el acceso único de VPC. Para ello, deberá escribir un SCP de AWS que solo admita el valor “vpc” para el parámetro “control de origen de red” en la API create_access_point(). Si tuviera puntos de acceso orientados a Internet creados anteriormente, se pueden eliminar. También necesitará modificar la política de bucket en cada uno de los buckets para restringir aún más el acceso a Internet directamente en su bucket a través del nombre de host del bucket. Dado que otros servicios de AWS pueden estar accediendo a su bucket en forma directa, asegúrese de configurar el acceso de manera que permita los servicios de AWS que usted desea mediante la modificación de la política para permitir estos servicios de AWS. Consulte la documentación de S3 para conocer ejemplos de cómo hacerlo.

P: ¿Puedo deshabilitar por completo el acceso directo a un bucket utilizando el nombre de host del bucket?

No actualmente, pero puede vincular la política de un bucket que rechace las solicitudes que no fueron creadas utilizando un punto de acceso. Consulte la documentación de S3 para obtener más información.

P: ¿Puedo sustituir o eliminar un punto de acceso de un bucket?

Sí. Cuando elimina un punto de acceso, no se interrumpirá el acceso al bucket asociado a través de otros puntos de acceso, y a través del nombre de host del bucket.

P: ¿Cuál es el costo de los puntos de acceso de Amazon S3?

No hay cargo adicional para los puntos de acceso o para los buckets que usan puntos de acceso. Se aplican las tarifas de solicitud habituales de Amazon S3.

P: ¿Cómo puedo comenzar a usar los puntos de acceso de S3?

Puede empezar por crear puntos de acceso de S3 en buckets nuevos así como en buckets existentes mediante la consola de administración de AWS, la interfaz de línea de comandos (CLI) de AWS, la interfaz de programación de aplicaciones (API) y el cliente del kit de desarrollo de software (SDK) de AWS. Para obtener más información sobre los puntos de acceso de S3, consulte la guía del usuario.

Durabilidad y protección de datos

P: ¿Qué nivel de durabilidad ofrece Amazon S3?

Amazon S3 Estándar, S3 Estándar-Acceso poco frecuente, S3 Intelligent Tiering, S3 Única zona - Acceso poco frecuente, S3 Glacier y S3 Glacier Deep Archive están todos diseñados para ofrecer una durabilidad del 99,999999999 % (once 9) de los objetos durante un periodo de un año. Este nivel de durabilidad corresponde a una pérdida anual media prevista del 0,000000001 % de los objetos. Por ejemplo, si almacena 10 000 objetos con Amazon S3, podría esperar incurrir en una pérdida promedio de un objeto cada 10 000 000 años. S3 on Outposts está diseñado para almacenar datos de manera duradera y redundante en múltiples dispositivos y servidores en su Outpost. Además, los tipos Amazon S3 Estándar, S3 Estándar - Acceso poco frecuente, S3 Glacier y S3 Glacier Deep Archive están todos diseñados para conservar los datos en caso de que ocurra la pérdida de una zona de disponibilidad de S3 completa.

Al igual que con cualquier otro entorno, la práctica recomendada consiste en disponer de un backup y colocar protecciones para evitar eliminaciones accidentales o malintencionadas. Para datos de S3, dicha práctica recomendada incluye permisos de acceso seguro, replicación entre diferentes regiones, control de versiones y una copia de seguridad funcional y probada periódicamente. 

P: ¿De qué manera están diseñados Amazon S3 y Amazon S3 Glacier para poder lograr un nivel de durabilidad de 99,999999999 %?

Los tipos de almacenamiento Amazon S3 Estándar, Amazon S3 Estándar - Acceso poco frecuente y Amazon S3 Glacier almacenan los objetos de manera redundante en varios dispositivos distribuidos en un mínimo de tres zonas de disponibilidad (AZ) de una región de Amazon S3 antes de enviar el mensaje “SUCCESS” (acción finalizada correctamente). El tipo de almacenamiento S3 Única zona – Acceso poco frecuente almacena los datos de manera redundante en varios dispositivos dentro de una única zona de disponibilidad. Estos servicios están diseñados para solucionar errores simultáneos en dispositivos mediante la detección y reparación ágiles de cualquier pérdida de redundancia. Además, controlan con regularidad la integridad de los datos mediante sumas de comprobación.

P: ¿Qué sumas de comprobación utiliza Amazon S3 para detectar datos dañados?

Amazon S3 utiliza una combinación de sumas de comprobación MD5 de contenido y comprobaciones de redundancia cíclica (CRC) para detectar datos dañados. Amazon S3 realiza estas sumas de comprobación en los datos que se encuentran inactivos, y repara los daños utilizando datos redundantes. Además, este servicio calcula las sumas de comprobación de todo el tráfico de la red para detectar paquetes de datos con daños durante el almacenamiento o la recuperación de los datos.

P: ¿Qué es el control de versiones?

El control de versiones le permite conservar, recuperar y restaurar todas las versiones de todos los objetos almacenados en un bucket de Amazon S3. Cuando habilite el control de versiones para un bucket, Amazon S3 conservará los objetos existentes cada vez que realice una operación PUT, POST, COPY o DELETE sobre ellos. De forma predeterminada, las solicitudes GET recuperarán la versión escrita más recientemente. Las versiones más antiguas de un objeto sobrescrito o eliminado podrán recuperarse si se especifica una versión en la solicitud.

P: ¿Por qué debo utilizar el control de versiones?

Amazon S3 ofrece a los clientes una infraestructura de almacenamiento que presenta elevados niveles de durabilidad. El control de versiones ofrece un nivel de protección adicional, proporcionando un medio de recuperación cuando los clientes sobrescriben o eliminan de forma accidental objetos. Esto le permite recuperarse fácilmente ante acciones no deseadas del usuario y errores de la aplicación. También puede utilizar el control de versiones para retener y archivar datos.

P: ¿Cómo puedo comenzar a utilizar el control de versiones?

Puede comenzar a utilizar el control de versiones si habilita el ajuste correspondiente del bucket de Amazon S3. Para obtener más información sobre cómo puede habilitar el control de versiones, consulte la documentación técnica de Amazon S3.

P: ¿De qué forma el control de versiones evita que se eliminen objetos accidentalmente?

Cuando un usuario realiza una operación DELETE sobre un objeto, las posteriores solicitudes sencillas (sin versión) no recuperarán el objeto. Sin embargo, todas las versiones de dicho objeto seguirán conservándose en el bucket Amazon S3 y podrán recuperarse o restablecerse. El único usuario que puede eliminar una versión de forma permanente de un bucket de Amazon S3 es el propietario. Puede definir reglas de ciclo de vida a fin de administrar la vigencia y el costo del almacenamiento de varias versiones de los objetos.

P: ¿Puedo configurar una papelera, una papelera de reciclaje o un período de restauración en los objetos de Amazon S3 para poder recuperar objetos eliminados y sobrescritos?

Puede usar las reglas de ciclo de vida junto con el control de versiones a fin de implementar un período de restauración para los objetos de Amazon S3. Por ejemplo, en un bucket con el control de versiones habilitado, puede configurar una regla que archive todas las versiones anteriores en el tipo de almacenamiento de Glacier de menor costo y las elimine transcurridos 100 días, de manera que dispondrá de un período de 100 días para restaurar cualquier cambio introducido en los datos al mismo tiempo que podrá reducir los costos de almacenamiento.

P: ¿Cómo puedo garantizar la máxima protección de las versiones conservadas?

La capacidad de eliminación de Multi-Factor Authentication (MFA) del control de versiones se puede utilizar para suministrar una capa de seguridad adicional. De forma predeterminada, todas las solicitudes realizadas a su bucket de Amazon S3 exigen las credenciales de su cuenta de AWS. Si habilita el control de versiones con MFA Delete en su bucket de Amazon S3, se exigirán dos vías de autenticación para que pueda eliminarse de forma permanente una versión de un objeto: las credenciales de su cuenta de AWS y un código de seis dígitos válido y un número de serie de un dispositivo de autenticación físico que se encontrará en sus manos. Para obtener más información sobre la activación del Control de versiones con Eliminación MFA, incluido cómo adquirir y activar un dispositivo de autenticación, consulte la documentación técnica de Amazon S3.

P: ¿Cómo se cobra el uso del control de versiones?

A toda versión de un objeto almacenado o solicitado de Amazon S3 se le aplican las tarifas normales. Por ejemplo, observemos el siguiente caso para ilustrar los costos de almacenamiento cuando se utiliza el control de versiones (supongamos que el mes actual tiene 31 días):

1) Día 1 del mes: realiza una operación PUT de 4 GB (4 294 967 296 bytes) en su bucket.
2) Día 16 del mes: realiza una operación PUT de 5 GB (5 368 709 120 bytes) dentro del mismo bucket de datos utilizando la misma clave que la operación PUT original del día 1.

Al analizar los costos de almacenamiento de las operaciones anteriores, debe tener en cuenta que el objeto de 4 GB del día 1 no se elimina del bucket cuando se escribe el objeto de 5 GB el día 15. En su lugar, el objeto de 4 GB se conserva como una versión más antigua, y el objeto de 5 GB pasa a ser la versión más recientemente escrita dentro del objeto que se encuentra en su bucket. A finales de mes:

Uso total de byte-hora
[4 294 967 296 bytes x 31 días x (24 horas/día)] + [5 368 709 120 bytes x 16 días x (24 horas/día)] = 5 257 039 970 304 byte-horas.

Conversión a GB/mes totales
5 257 039 970 304 bytes por hora x (1 GB/1 073 741 824 bytes) x (1 mes/744 horas) = 6,581 GB/mes

La tarifa se calcula en función de las tasas vigentes para su región que aparecen en la página de precios de Amazon S3.

Tipos de almacenamiento

S3 Intelligent-Tiering

P: ¿Qué es S3 Intelligent-Tiering?

Amazon S3 Intelligent-Tiering (S3 Intelligent-Tiering) es una clase de almacenamiento S3 diseñada para optimizar los costos de almacenamiento mediante el traslado automático de los datos a la capa de acceso más rentable, sin que se produzca una sobrecarga operativa. Es la única clase de almacenamiento en la nube que ofrece un ahorro automático en los costos mediante la migración de datos a nivel de objeto granular entre capas de acceso cuando cambian los patrones de acceso. Esta es la clase de almacenamiento perfecta cuando desea optimizar los costos de almacenamiento de datos con patrones de acceso desconocidos o cambiantes. Por una pequeña tarifa mensual de monitoreo y automatización de objetos, S3 Intelligent-Tiering monitorea los patrones de acceso y traslada automáticamente los objetos de una capa a otra. No se cobran tarifas de recuperación, de forma que no verá aumentos inesperados en las facturas de almacenamiento cuando cambien los patrones de acceso.

P: ¿Cómo funciona S3 Intelligent-Tiering?

S3 Intelligent-Tiering funciona con el almacenamiento de objetos en cuatro capas de acceso: dos de acceso de baja latencia optimizadas para el acceso frecuente y poco frecuente y dos de acceso a archivos opcionales diseñados para el acceso asíncrono, las cuales están optimizadas para accesos inusuales. Los objetos cargados en S3 Intelligent-Tiering o migrados allí se almacenan de forma automática en la capa de acceso frecuente. S3 Intelligent-Tiering funciona mediante el monitoreo de los patrones de acceso y el traslado posterior de los objetos a los que no se accedieron en 30 días consecutivos a la capa de acceso poco frecuente. Una vez que haya activado una o ambas capas de acceso a archivos, S3 Intelligent-Tiering migrará los objetos a los que no se haya accedido durante 90 días consecutivos a la capa de acceso al archivo y después de 180 días consecutivos sin acceso a la capa de acceso profundo a archivos. Si el objeto que está recuperando está almacenado en las capas de acceso al archivo o archivo profundo, antes de poder recuperar el objeto debe restaurar primero una copia mediante RestoreObject. Para más información acerca de la restauración de objetos archivados, consulte Restauración de objetos archivados. Si se accede a los objetos más adelante, estos vuelven a la capa de acceso frecuente. No se cobran tarifas de recuperación, de forma que no verá aumentos inesperados en las facturas de almacenamiento cuando cambien los patrones de acceso.

P: ¿Por qué elegiría usar S3 Intelligent-Tiering?

S3 Intelligent-Tiering es el único tipo de almacenamiento en el mundo con dos capas en las que puede lograr un alto procesamiento y una baja latencia cuando necesite sus datos de inmediato con la capa de acceso frecuente y dos capas opcionales de archivo automáticas por las que paga tan solo 1 USD por TB al mes cuando los datos permanezcan inactivos. S3 Intelligent-Tiering es para datos con patrones de acceso desconocidos o cambiantes. Para los conjuntos de datos con patrones de acceso cambiantes donde se accede a los subconjuntos de objetos ocasionalmente durante largos periodos, las capas de acceso a archivos reducen aún más el costo de almacenamiento hasta en un 95 %.

P: ¿Qué rendimiento ofrece S3 Intelligent-Tiering?

Las capas de acceso frecuente y poco frecuente de S3 Intelligent-Tiering ofrecen baja latencia y alto rendimiento. La capa de acceso a archivos tiene el mismo rendimiento que S3 Glacier y la capa de acceso a archivo profundo, el mismo rendimiento que S3 Glacier Deep Archive. Si su aplicación puede acceder a los objetos de forma asincrónica, active solo las capas de acceso a archivos. Si el objeto que está recuperando está almacenado en las capas de acceso al archivo o archivo profundo, antes de poder recuperar el objeto debe restaurar primero una copia mediante RestoreObject. Para más información acerca de la restauración de objetos archivados, consulte Restauración de objetos archivados. Los objetos en la capa de acceso a archivos se trasladan a la capa de acceso frecuente en 3 a 5 horas y los que están en la capa de acceso a archivo profundo en un plazo de 12 horas. Si necesita acceder más rápidamente a un objeto en la capa de acceso a archivos, puede pagar por una recuperación más rápida mediante la consola, donde podrá seleccionar la opción de velocidad de recuperación acelerada.

P: ¿Cuál es el nivel de duración y disponibilidad de S3 Intelligent-Tiering?

S3 Intelligent-Tiering está diseñado para lograr la misma durabilidad del 99,999999999 % que la clase de almacenamiento S3 Estándar. S3 Intelligent-Tiering está diseñado para ofrecer una disponibilidad del 99,9 % y está respaldado por un acuerdo de nivel de servicios que proporciona créditos de servicio si la disponibilidad se encuentra por debajo de nuestro compromiso de servicio dentro de un ciclo de facturación.

P: ¿Cómo transfiero mis datos a S3 Intelligent-Tiering?

Existen dos maneras para transferir los datos a S3 Intelligent-Tiering. Puede colocar PUT directamente en S3 Intelligent-Tiering con la especificación INTELLIGENT_TIERING en el encabezado x-amz-storage-class o establecer políticas de ciclo de vida para transferir objetos de S3 Estándar o S3 Estándar - Acceso poco frecuente a S3 INTELLIGENT_TIERING.

P: ¿Cómo se paga el uso de S3 Intelligent-Tiering?

S3 Intelligent-Tiering cobra por el almacenamiento, las solicitudes y la transferencia de datos mensuales y cobra una pequeña tarifa mensual por el monitoreo y la automatización por objeto. La clase de almacenamiento S3 Intelligent-Tiering almacena objetos en cuatro capas de acceso: la capa de acceso frecuente con tarifas de almacenamiento de S3 Estándar, la capa de acceso poco frecuente con tarifas de almacenamiento de S3 Estándar - Almacenamiento de acceso poco frecuente, la capa de acceso a archivos con tarifas de almacenamiento de S3 Glacier y la capa de acceso a archivo profundo con tarifas de almacenamiento de S3 Glacier Deep Archive.

S3 Intelligent-Tiering no tiene tarifas de recuperación. Por una pequeña tarifa de monitoreo y automatización, S3 Intelligent-Tiering monitorea los patrones de acceso y traslada automáticamente los objetos entre las cuatro capas de acceso a fin de optimizar el costo y el rendimiento del almacenamiento.

S3 Intelligent-Tiering no tiene un tamaño de objeto mínimo facturable, pero los objetos inferiores a 128 KB no son elegibles para la designación automática de capas. A los objetos que se eliminan, sobrescriben o trasladan del ciclo de vida a una clase de almacenamiento diferente antes de que transcurran 30 días se les aplicará el cargo por uso normal más un cargo prorrateado durante el resto del periodo mínimo de 30 días. Para cada objeto archivado en la capa de acceso a archivos o la capa de acceso a archivo profundo en S3 Intelligent-Tiering, Amazon S3 utiliza 8 KB de almacenamiento para el nombre del objeto y otros metadatos (facturados a las tarifas de almacenamiento de S3 Estándar) y 32 KB de almacenamiento para el índice y los metadatos relacionados (facturados a las tarifas de almacenamiento de S3 Glacier y S3 Glacier Deep Archive).

P: ¿Cómo activo las capas de acceso a archivos de S3 Intelligent-Tiering?

Puede activar la capa de acceso a archivos y la capa de acceso a archivo profundo mediante la creación de una configuración de nivel de etiqueta de objeto, prefijo o bucket con la API de Amazon S3, la CLI o la consola de administración de S3. Si su aplicación puede acceder a los objetos de forma asincrónica, active solo una o ambas capas de acceso a archivos.

P: ¿Puedo extender el tiempo antes de que los objetos se archiven en la clase de almacenamiento S3 Intelligent-Tiering?

Sí. En la configuración del nivel de bucket, prefijo o etiqueta de objeto, puede extender el tiempo de último acceso para archivar objetos en S3 Intelligent-Tiering. Cuando está habilitada, los objetos a los que no se accedió durante un mínimo de 90 días consecutivos se trasladan de forma predeterminada y automática a la capa de acceso a archivos. Los objetos a los que no se accedió durante un mínimo de 180 días consecutivos se trasladan automáticamente a la capa de acceso a archivo profundo. La configuración predeterminada para los días consecutivos desde el último acceso antes del archivado automático en S3 Intelligent-Tiering se puede extender hasta 2 años.

P: ¿Cómo accedo a un objeto en las capas de acceso a archivos o de acceso a archivo profundo en la clase de almacenamiento S3 Intelligent-Tiering?

Para acceder a un objeto en las capas de acceso a archivos o de acceso a archivo profundo, envíe una solicitud de restauración y el objeto comenzará a trasladarse a la capa de acceso frecuente, todo dentro de la clase de almacenamiento S3 Intelligent-Tiering. Los objetos en la capa de acceso a archivos se trasladan a la capa de acceso frecuente en 3 a 5 horas y los objetos en la capa de acceso a archivo profundo, en 12 horas. Una vez que el objeto está en la capa de acceso frecuente, puede enviar una solicitud GET para recuperarlo.

P: ¿Cómo sé en qué capa de acceso de S3 Intelligent-Tiering se almacenan mis objetos?

Puede usar el inventario de Amazon S3 para informar la capa de acceso de los objetos almacenados en la clase de almacenamiento S3 Intelligent-Tiering. El inventario de Amazon S3 proporciona archivos CSV, ORC o Parquet de salida que muestran los objetos y sus metadatos correspondientes una vez al día o a la semana para un bucket de S3 o un prefijo compartido. También puede enviar una solicitud HEAD de sus objetos para informar las capas de acceso a archivos de S3 Intelligent-Tiering.

P: ¿S3 Intelligent-Tiering tiene duración mínima?

Sí. La clase de almacenamiento S3 Intelligent-Tiering tiene una duración de almacenamiento mínima de 30 días, es decir, esos datos que se eliminan, sobrescriben o trasladan a una clase de almacenamiento diferente de S3 antes de que transcurran 30 días tendrán el cargo por uso normal más un cargo prorrateado durante el resto del periodo mínimo de 30 días.

P: ¿S3 Intelligent-Tiering tiene un tamaño de objeto mínimo facturable?

No. La clase de almacenamiento S3 Intelligent-Tiering no tiene un tamaño de objeto mínimo facturable, pero los objetos inferiores a 128 KB no son elegibles para la designación automática de capas y siempre se almacenarán conforme la tarifa de la capa de acceso frecuente. Para cada objeto archivado en la capa de acceso a archivos o la capa de acceso a archivo profundo en S3 Intelligent-Tiering, Amazon S3 utiliza 8 KB de almacenamiento para el nombre del objeto y otros metadatos (facturados a las tarifas de almacenamiento de S3 Estándar) y 32 KB de almacenamiento para el índice y los metadatos relacionados (facturados a las tarifas de almacenamiento de S3 Glacier y S3 Glacier Deep Archive). Para obtener más información, visite https://aws.amazon.com/s3/pricing/.

S3 Estándar – Acceso poco frecuente

P: ¿Qué es S3 Estándar – Acceso poco frecuente?

Amazon S3 Estándar – Acceso poco frecuente es un tipo de almacenamiento de Amazon S3 para datos a los que se obtiene acceso con poca frecuencia, pero que requieren un acceso rápido cuando es necesario. Este tipo ofrece el alto nivel de durabilidad y procesamiento, y la baja latencia del tipo de almacenamiento Amazon S3 Estándar, con una tarifa de recuperación y un precio de almacenamiento por GB bajos. La combinación de alto rendimiento y bajos costos convierten a S3 Estándar - Acceso poco frecuente en la opción ideal para el almacenamiento a largo plazo, las copias de seguridad y como almacén de datos para la recuperación ante desastres. El tipo Estándar – Acceso poco frecuente de S3 está definido a nivel de objeto y puede existir en el mismo bucket que los tipos de almacenamiento S3 Estándar y Única zona – Acceso poco frecuente de S3, lo que le permite usar políticas de ciclo de vida de S3 para trasladar automáticamente objetos entre tipos de almacenamiento sin introducir cambios en las aplicaciones.

P: ¿Por qué debería usar Estándar – Acceso poco frecuente de S3?

El tipo S3 Estándar – Acceso poco frecuente es ideal para datos a los que se obtiene acceso con menos frecuencia, pero que requieren un acceso rápido cuando es necesario. S3 Estándar - Acceso poco frecuente es ideal para el almacenamiento de archivos a largo plazo, el almacenamiento de recursos compartidos, la sincronización de carpetas y otros datos caducos.

P: ¿Qué nivel de desempeño ofrece S3 Estándar - Acceso poco frecuente?

S3 Estándar - Acceso poco frecuente proporciona el mismo nivel de latencia y de desempeño de procesamiento que el tipo de almacenamiento S3 Estándar. 

 

P: ¿Cómo transfiero mis datos a S3 Estándar - Acceso poco frecuente?

Existen dos maneras para transferir los datos a S3 Estándar – Acceso poco frecuente. Puede utilizar directamente una solicitud PUT en S3 Estándar – Acceso poco frecuente mediante la especificación de STANDARD_IA en el encabezado x-amz-storage-class. También puede definir políticas de ciclo de vida para trasladar objetos desde S3 Estándar al tipo de almacenamiento S3 Estándar - Acceso poco frecuente.

P: ¿En qué cargos incurriré si cambio al tipo de almacenamiento de un objeto de S3 Estándar - Acceso poco frecuente Estándar a S3 Estándar mediante una solicitud COPY?

Incurrirá en cargos por la solicitud COPY de Estándar – Acceso poco frecuente de S3 y la recuperación de datos de Estándar – Acceso poco frecuente de S3.

P: ¿Existe un cargo mínimo por duración de almacenamiento en Estándar – Acceso poco frecuente de S3?

S3 Estándar – Acceso poco frecuente está diseñado para datos de larga duración que se almacenan durante meses o años y a los que se obtiene acceso con poca frecuencia. En el caso de que se eliminen datos de S3 Estándar – Acceso poco frecuente dentro de un plazo de 30 días, se facturarán los 30 días completos. Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de S3 Estándar - Acceso poco frecuente.

P: ¿Existe un cargo mínimo por almacenamiento de objetos para Estándar – Acceso poco frecuente de S3?

S3 Estándar – Acceso poco frecuente está diseñado para objetos de mayor tamaño y tiene un cargo mínimo de almacenamiento de objetos de 128 KB. Los objetos de tamaño inferior a 128 KB incurrirán en cargos de almacenamiento equivalentes a 128 KB. Por ejemplo, un objeto de 6 KB en S3 Estándar – Acceso poco frecuente incurrirá en los cargos de almacenamiento de S3 Estándar – Acceso poco frecuente para 6 KB, así como una tarifa mínima adicional de tamaño de objeto equivalente a 122 KB de acuerdo con el precio de almacenamiento de S3 Estándar – Acceso poco frecuente. Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de S3 Estándar - Acceso poco frecuente.

P: ¿Puedo transferir objetos desde Estándar - Acceso poco frecuente de S3 a Única zona - Acceso poco frecuente de S3 o S3 Glacier?

Sí. Además de usar políticas de ciclo de vida para migrar objetos desde S3 Estándar a Estándar - Acceso poco frecuente de S3, también puede configurar políticas de ciclo de vida para transferir objetos desde Estándar - Acceso poco frecuente de S3 a Única zona - Acceso poco frecuente de S3 o S3 Glacier.

Única zona - Acceso poco frecuente de S3

P: ¿Qué es el tipo de almacenamiento S3 Única zona – Acceso poco frecuente?

S3 Única zona – Acceso poco frecuente es un tipo de almacenamiento de Amazon S3 que los clientes pueden elegir para almacenar objetos en una única zona de disponibilidad. El almacenamiento S3 Única zona – Acceso poco frecuente almacena datos de manera redundante dentro de una única zona de disponibilidad para poder ofrecer un almacenamiento con un costo 20% inferior al almacenamiento S3 Estándar – Acceso poco frecuente con redundancia geográfica, que almacena los datos de manera redundante en varias zonas de disponibilidad que se encuentran geográficamente distanciadas.

S3 Única zona - Acceso poco frecuente ofrece un SLA para una disponibilidad de 99 % y también está diseñado para suministrar una durabilidad con once 9 dentro de la zona de disponibilidad. Sin embargo, los datos de la clase de almacenamiento S3 Única zona - Acceso poco frecuente no son resistentes a la pérdida física de toda una zona de disponibilidad.

El almacenamiento S3 Única zona - Acceso poco frecuente ofrece las mismas características de Amazon S3 que S3 Estándar y S3 Estándar - Acceso poco frecuente, y se puede usar mediante la API, la CLI o la consola de Amazon S3. El tipo de almacenamiento S3 Única zona – Acceso poco frecuente está definido a nivel del objeto y puede existir en el mismo bucket que los tipos S3 Estándar y S3 Estándar – Acceso poco frecuente. Puede usar las políticas de ciclo de vida de S3 para trasladar automáticamente objetos entre tipos de almacenamiento sin realizar cambios en las aplicaciones.

P: ¿Cuáles son los casos de uso más adecuados para el tipo de almacenamiento Única zona – Acceso poco frecuente de S3?

Los clientes pueden usar Única zona - Acceso poco frecuente de S3 para almacenamiento con acceso poco frecuente, como copias de seguridad, copias de recuperación de desastres y otros datos de recreación sencilla.

P. ¿Qué nivel de rendimiento ofrece el almacenamiento S3 Única zona - Acceso poco frecuente?

El tipo de almacenamiento S3 Única zona - Acceso poco frecuente ofrece el mismo rendimiento de latencia y procesamiento que los tipos de almacenamiento S3 Estándar y S3 Estándar - Almacenamiento de acceso poco frecuente.

P: ¿Qué nivel de durabilidad tiene el tipo de almacenamiento S3 Única zona - Acceso poco frecuente?

El tipo de almacenamiento S3 Única zona - Acceso poco frecuente está diseñado para un nivel de durabilidad de 99,999999999% dentro de una zona de disponibilidad. Sin embargo, los datos de la clase de almacenamiento S3 Única zona - Acceso poco frecuente no son resistentes a la pérdida de disponibilidad o pérdida física de una zona de disponibilidad. Por el contrario, los almacenamientos S3 Estándar, S3 Intelligent-Tiering, S3 Estándar - Acceso poco frecuente y S3 Glacier están diseñados para resistir la pérdida de disponibilidad o la destrucción de una zona de disponibilidad. S3 Única zona - Acceso poco frecuente puede ofrecer una durabilidad equivalente o superior a la mayoría de los centros de datos físicos más modernos, al mismo tiempo que suministra el beneficio adicional de la elasticidad de almacenamiento y el conjunto de características de Amazon S3.

P: ¿Es lo mismo una “zona” de S3 Única zona - Acceso poco frecuente que una zona de disponibilidad de AWS?

Sí. Cada región de AWS es un área geográfica independiente. Cada región tiene varias ubicaciones aisladas conocidas como zonas de disponibilidad. El tipo de almacenamiento Única zona - Acceso poco frecuente de Amazon S3 replica los datos dentro de una única zona de disponibilidad.

P: ¿De qué nivel de protección de recuperación de desastres me privo si utilizo S3 Única zona - Acceso poco frecuente?

Cada zona de disponibilidad usa redes y capacidad redundantes. Dentro de una región de AWS, las zonas de disponibilidad se encuentran en diferentes terrenos inundables, zonas de fallas sísmicas y separadas geográficamente a los fines de brindar protección contra incendios. El tipo de almacenamiento S3 Estándar y S3 Estándar - Acceso poco frecuente ofrecen protección contra estos tipos de desastres mediante el almacenamiento de sus datos de manera redundante en varias zonas de disponibilidad. S3 Única zona - Acceso poco frecuente ofrece protección contra los fallos de los equipos dentro de una zona de disponibilidad, pero los datos no son resistentes a la pérdida física de la zona de disponibilidad debido a desastres, como terremotos e inundaciones. Mediante el uso de las opciones S3 Única zona - Acceso poco frecuente, S3 Estándar y S3 Estándar - Acceso poco frecuente, puede elegir el tipo de almacenamiento que mejor se adapte a las necesidades de durabilidad y disponibilidad de su almacenamiento.

S3 en Outposts

P:  ¿Qué es Amazon S3 on Outposts?

Amazon S3 on Outposts ofrece almacenamiento de objetos en su entorno en las instalaciones y utiliza las API y las capacidades de S3 que usted usa en AWS en la actualidad. AWS Outposts es un servicio completamente administrado que amplía la infraestructura de AWS, los servicios de AWS, las API y las herramientas a prácticamente cualquier centro de datos, espacio de coubicación o instalación local. Con S3 on Outposts, puede procesar y almacenar de manera segura datos de clientes generados en las instalaciones antes de moverlos a una región de AWS, acceder a datos en forma local para aplicaciones que funcionan en las instalaciones o almacenar datos en su Outpost para empresas en ubicaciones con requisitos de residencia de datos o empresas en sectores regulados. Para obtener más información sobre S3 en Outposts, visite la página de información general.
 

Amazon S3 Glacier

P: ¿Qué es Amazon S3 Glacier?

S3 Glacier es un tipo de almacenamiento seguro, duradero y de bajo costo para el archivado de datos. Puede almacenar el volumen de datos que desee de manera fiable a precios competitivos o más económicos que las soluciones locales. Para mantener los costos bajos pero seguir siendo apto para diversas necesidades, S3 Glacier proporciona tres opciones de recuperación, que van desde unos pocos minutos a unas horas. Puede cargar los objetos directamente en S3 Glacier o utilizar las políticas del ciclo de vida de S3 para transferir datos entre cualquiera de los tipos de almacenamiento de S3 para los datos activos (S3 Estándar, S3 Capas inteligentes, S3 Estándar - Acceso poco frecuente y S3 Única zona - Acceso poco frecuente) y S3 Glacier. 

P: ¿Amazon S3 ofrece el tipo de archivado de objetos para reducir el costo de los tipos de almacenamiento?

Sí, Amazon S3 le permite utilizar Amazon S3 Glacier y Amazon S3 Glacier Deep Archive para el almacenamiento y el archivo de datos a los que se accede raramente. Amazon S3 almacena datos a partir de tan solo 0,004 USD por gigabyte al mes. Amazon S3 proporciona tres opciones de acceso a los archivos, que van desde unos pocos minutos a varias horas, lo que la convierte en una opción adecuada para diversas necesidades de recuperación a la vez que mantiene los costos bajos. S3 Glacier Deep Archive es la clase de almacenamiento más económica de Amazon S3 y admite la retención a largo plazo y la conservación digital de datos a los que se obtiene acceso una o dos veces al año.  Entre los ejemplos de los casos prácticos de archivos se incluyen archivos digitales de contenido multimedia, historiales médicos y registros financieros, datos sin procesar de secuencia genómica, copias de seguridad a largo plazo de bases de datos y datos que deben conservarse para cumplir requisitos normativos.

P: ¿Cómo puedo almacenar mis datos con el tipo de almacenamiento Amazon S3 Glacier?

Si tiene un almacenamiento que debe archivarse inmediatamente o si toma decisiones empresariales sobre cuándo trasladar objetos a S3 Glacier que no puedan expresarse a través de la política de ciclo de vida de Amazon S3, S3 PUT to Glacier le permite usar las API de S3 para realizar cargas en el tipo de almacenamiento S3 Glacier objeto por objeto. No hay demoras en los traslados y usted controla los plazos. Esto también es una buena opción si desea que su aplicación tome decisiones de tipo de almacenamiento sin tener que establecer una política de nivel de bucket.

Puede utilizar las reglas de ciclo de vida para archivar automáticamente conjuntos de objetos de Amazon S3 en S3 Glacier en función de su antigüedad. Utilice la consola de administración de Amazon S3, los SDK de AWS o las API de Amazon S3 para definir reglas para el archivado. Las reglas especifican un prefijo y un periodo de tiempo. El prefijo (por ejemplo, “logs/”) identifica los objetos sujetos a la regla. El periodo de tiempo especifica el número de días desde la fecha de creación del objeto (por ejemplo, 180 días) o la fecha especificada después de la cual se deben archivar los objetos. Los objetos de S3 Estándar, S3 Estándar - Acceso poco frecuente o S3 Única zona - Acceso poco frecuente cuyos nombres comienzan con el prefijo especificado y que hayan superado el período de tiempo definido se archivarán en S3 Glacier. Para recuperar los datos de Amazon S3 almacenados en S3 Glacier, inicie un trabajo de recuperación a través de las API o la consola de administración de Amazon S3. Una vez finalizada la tarea de recuperación, puede obtener acceso a los datos a través de una solicitud de objeto GET de Amazon S3.

Para obtener más información sobre cómo utilizar las reglas de ciclo de vida para archivar objetos en S3 Glacier, consulte el tema Archivado de objetos en la Guía para desarrolladores de Amazon S3.

P: ¿Cómo puedo recuperar objetos que estén archivados en Amazon S3 Glacier? ¿Se me notificará cuando el objeto se haya recuperado?

Para recuperar los datos de Amazon S3 almacenados en el tipo de almacenamiento S3 Glacier, inicie una solicitud de recuperación usando las API o la consola de administración de Amazon S3. La solicitud de recuperación crea una copia temporal de sus datos en el tipo de almacenamiento S3 Estándar - Acceso poco frecuente o RRS de S3 al mismo tiempo que deja los datos archivados intactos en S3 Glacier. Puede especificar durante cuánto tiempo en días se almacenará la copia temporal en S3. A continuación, puede obtener acceso a su copia temporal desde S3 a través de una solicitud GET de Amazon S3 en el objeto archivado.

Con las notificaciones sobre recuperación, ahora se le notificará con unaNotificación de evento de S3 cuando un objeto se ha recuperado exitosamente de S3 Glacier y la copia temporal está disponible para usted. El propietario del bucket (u otros, que estén autorizados por una política de IAM) pueden encargarse de que las notificaciones se envíen a Amazon Simple Queue Service (SQS) o a Amazon Simple Notification Service (SNS). Las notificaciones también se pueden enviar a AWS Lambda para su procesamiento mediante una función de Lambda.

P: ¿Cuánto tiempo se tardará en restaurar los objetos archivados en S3 Glacier? ¿Puedo actualizar una solicitud en progreso a una velocidad de restauración más rápida?

Al procesar un trabajo de recuperación, Amazon S3 recupera primero los datos solicitados desde S3 Glacier y, a continuación, crea una copia temporal de los datos solicitados en S3 (lo que suele tardar unos pocos minutos). El tiempo de acceso de la solicitud depende de la opción de recuperación que elija: recuperaciones Expedited, Standard o Bulk. A excepción de los archivos de mayor tamaño (más de 250 MB), los datos accedidos mediante las recuperaciones Expedited suelen estar disponibles entre 1 a 5 minutos. Los objetos recuperados a través de la opción Standard suelen estar disponibles entre 3 a 5 horas. Las recuperaciones Bulk suelen completarse entre 5 a 12 horas. Para obtener más información sobre las opciones de recuperación de S3 Glacier, consulte las preguntas frecuentes sobre S3 Glacier.

S3 Restore Speed Upgrade es una sustitución de un proceso de restauración en progreso por una capa de restauración más rápida si el acceso a los datos fuera urgente. Puede usar S3 Restore Speed Upgrade mediante la emisión de otra solicitud de restauración para el mismo objeto con un nuevo parámetro de “capa” de trabajo. Cuando emite una S3 Restore Speed Upgrade, debe elegir una velocidad de restauración más rápida que la de la restauración en progreso. No se modificarán otros parámetros, como el tiempo de expiración del objeto. Puede actualizar el tiempo de expiración del objeto después de finalizada la restauración. Debe pagar por cada solicitud de restauración y el cargo de recuperación por GB para la capa de restauración más rápida. Por ejemplo, si emite una restauración de nivel masivo y luego emite una solicitud de S3 Restore Speed Upgrade en el nivel Expedited para anular la restauración de nivel masivo en progreso, se le cobrarán dos solicitudes y el cargo de recuperación por GB del nivel Expedited.

P: ¿Cómo se calcula el costo de almacenamiento de los objetos de Amazon S3 archivados en Amazon S3 Glacier?

El volumen de almacenamiento facturado en un mes corresponde a la media del almacenamiento utilizado durante todo el mes, medido en gigabyte-meses (GB-meses). Amazon S3 calcula el tamaño del objeto sumando el volumen de datos almacenados más 32 KB adicionales de datos de Amazon S3 Glacier más 8 KB adicionales de datos de tipo de almacenamiento S3 Estándar. Amazon S3 Glacier requiere 32 KB adicionales de datos por objeto para el índice y los metadatos de Glacier a los fines de que pueda identificar y recuperar sus datos. Amazon S3 requiere 8 KB para almacenar y mantener el nombre definido por el usuario y los metadatos de los objetos archivados en Amazon S3 Glacier. Esto le permite obtener una lista en tiempo real de todos sus objetos de Amazon S3, incluidos los almacenados mediante el tipo de almacenamiento Amazon S3 Glacier, con la API LIST de Amazon S3 o el informe de S3 Inventory. Por ejemplo, si ha archivado 100 000 objetos de 1 GB cada uno, su almacenamiento facturable será de:

1,000032 gigabytes para cada objeto x 100 000 objetos = 100 003,2 gigabytes de almacenamiento de Amazon S3 Glacier.
0,000008 gigabytes para cada objeto x 100 000 objetos = 0,8 gigabytes de almacenamiento de Amazon S3 Estándar.

La tarifa se calcula en función de las tarifas vigentes para la región de AWS según la página de precios de Amazon S3.

P: ¿Qué volumen de datos puedo recuperar de Amazon S3 Glacier de manera gratuita?

Puede recuperar 10 GB de datos de Amazon S3 Glacier al mes de manera gratuita con la capa gratuita de AWS. La capa gratuita se puede utilizar en cualquier momento del mes y se aplica a las recuperaciones Standard de Amazon S3 Glacier.

P: ¿Cómo se cobra la eliminación de objetos de Amazon S3 Glacier que tengan menos de 90 días?

Amazon S3 Glacier está diseñado para casos de uso en los que los datos se conservan durante meses, años o décadas. La eliminación de datos archivados en Amazon S3 Glacier es gratuita si los objetos que se están eliminando se han archivado en Amazon S3 Glacier durante 90 días o más. Si se elimina o se sobrescribe un objeto archivado en Amazon S3 Glacier antes de que transcurran 90 días desde su archivado, se le cobrará una tarifa de eliminación anticipada. Esta cuota se prorratea. Si elimina 1 GB de datos 30 días después de cargarlos, se le cobrará una tarifa de eliminación anticipada por 60 días de almacenamiento de Amazon S3 Glacier. Si elimina 1 GB de datos después de 60 días, se le cobrarán 30 días de almacenamiento de Amazon S3 Glacier.

P: ¿Cuánto cuesta recuperar datos de Amazon S3 Glacier? 

Existen tres maneras de restaurar datos de Amazon S3 Glacier (recuperaciones Expedited, Standard y Bulk) y cada una de ellas tiene una tarifa de recuperación por GB y de solicitud por archivo distinta (es decir, solicitar un archivo cuenta como una solicitud). Para obtener información detallada sobre los precios de S3 Glacier por región de AWS, visite la página de precios de Amazon S3 Glacier.

P: ¿Qué infraestructura de backend es compatible con el tipo de almacenamiento S3 Glacier y S3 Glacier Deep Archive?

Preferimos enfocarnos en los resultados que los clientes obtienen en rendimiento, durabilidad, disponibilidad y seguridad. Sin embargo, nuestros clientes nos hacen esta pregunta con frecuencia. Utilizamos una serie de tecnologías diferentes que nos permiten ofrecer a nuestros clientes los precios que tenemos. Nuestros servicios se desarrollan utilizando tecnologías comunes de almacenamiento de datos específicamente ensambladas en sistemas con diseños específicos y con un costo optimizado utilizando software desarrollado por AWS. S3 Glacier se beneficia de nuestra capacidad para optimizar la secuencia de entradas y salidas con el fin de maximizar la eficiencia cuando se accede al almacenamiento subyacente.

Amazon S3 Glacier Deep Archive

P: ¿Qué es Amazon S3 Glacier Deep Archive?

S3 Glacier Deep Archive es un tipo de almacenamiento de Amazon S3 que permite guardar objetos de manera segura y duradera para lograr la retención a largo plazo de datos a los cuales se accede una o dos veces al año. A partir de tan solo 0,00099 USD por GB al mes (menos de la décima parte de un centavo o aproximadamente 1 USD por TB al mes), S3 Glacier Deep Archive ofrece el almacenamiento en la nube de menor costo, a precios más bajos que el almacenamiento y el mantenimiento de datos en bibliotecas de cintas magnéticas en las instalaciones o el archivo de datos fuera de las instalaciones.

P: ¿Cuáles son los casos de uso más aptos para S3 Glacier Deep Archive?

S3 Glacier Deep Archive es un tipo de almacenamiento ideal para proporcionar protección sin conexión de los activos de datos más importantes de su empresa o cuando se requiere retención de datos a largo plazo por requisitos contractuales, de la política de la empresa o de conformidad normativa. Los clientes descubren que S3 Glacier Deep Archive es una opción interesante para proteger la propiedad intelectual principal, los registros financieros y médicos, los resultados de las investigaciones, los documentos legales, los estudios de exploraciones sísmicas y las copias de seguridad a largo plazo, especialmente en industrias muy reguladas, por ejemplo, servicios financieros, atención sanitaria, petróleo y gas y sectores públicos. Además, hay organizaciones, como las empresas de medios y entretenimiento, que desean mantener una copia de seguridad de la propiedad intelectual principal. Con frecuencia, los clientes que usan S3 Glacier Deep Archive son capaces de reducir o discontinuar el uso de bibliotecas locales de cintas magnéticas y servicios de archivo de cintas fuera de las instalaciones.

P: ¿En qué se diferencia S3 Glacier Deep Archive de S3 Glacier?

S3 Glacier Deep Archive amplía nuestra oferta de archivado de datos, lo que le permite seleccionar un tipo de almacenamiento óptimo en función de los costos de almacenamiento y recuperación y de los tiempos de recuperación. Elija S3 Glacier cuando necesite recuperar datos archivados en un plazo de entre 1 y 5 minutos mediante las recuperaciones Expedited. Por el contrario, S3 Glacier Deep Archive está diseñado para los datos más inactivos a los que se accede muy raramente pero que de todas maneras requieren almacenamiento duradero a largo plazo. S3 Glacier Deep Archive es hasta un 75 % más económico que S3 Glacier y proporciona recuperación en un plazo de 12 horas usando la velocidad de recuperación estándar. También puede reducir los costos de recuperación si selecciona la recuperación masiva, capaz de devolver datos en un plazo de 48 horas.

P: ¿Cómo puedo comenzar a utilizar S3 Glacier Deep Archive?

La forma más fácil de almacenar datos en S3 Glacier Deep Archive consiste en usar la API de S3 para cargar los datos directamente. Simplemente especifique “S3 Glacier Deep Archive” como el tipo de almacenamiento. Puede hacer esto mediante el uso de la consola de administración de AWS, la API REST de S3, los SDK de AWS o la interfaz de línea de comandos de AWS.

También puede comenzar a usar S3 Glacier Deep Archive mediante la creación de políticas para migrar datos a través de S3 Lifecycle, que brinda la capacidad de definir el ciclo de vida de su objeto y reducir el costo de almacenamiento. Estas políticas se pueden definir para migrar objetos a S3 Glacier Deep Archive en función de su antigüedad. Puede especificar la política para un bucket de S3 o para prefijos específicos. Las transiciones de ciclo de vida se facturan al precio de carga de S3 Glacier Deep Archive.

Tape Gateway, una característica de AWS Storage Gateway para bibliotecas de cintas virtuales basadas en la nube, ahora se integra con S3 Glacier Deep Archive, lo que le permite almacenar sus archivos y copias de seguridad a largo plazo basadas en cintas virtuales en S3 Glacier Deep Archive, proporcionando el almacenamiento más económico para estos datos en la nube. Para comenzar, cree una nueva cinta virtual con la consola o la API de AWS Storage Gateway y configure el destino de almacenamiento de archivo en S3 Glacier o S3 Glacier Deep Archive. Cuando su aplicación de copia de seguridad expulse la cinta, esta se archivará en el destino de almacenamiento seleccionado.

P: ¿De qué manera me conviene realizar la migración de datos desde mis archivos de cintas existentes a S3 Glacier Deep Archive?

Existen varias maneras de migrar datos desde archivos de cintas existentes a S3 Glacier Deep Archive. Puede usar AWS Tape Gateway para migrar datos con aplicaciones de copia de seguridad existentes a través de la interfaz de biblioteca de cintas virtuales (VTL). Esta interfaz presenta cintas virtuales en la aplicación de copia de seguridad. Estas se pueden usar inmediatamente para almacenar datos en Amazon S3, S3 Glacier y S3 Glacier Deep Archive.

También puede usar AWS Snowball o Snowmobile para migrar datos. Snowball y Snowmobile aceleran la transferencia de datos, desde terabytes a petabytes, hacia y desde AWS mediante dispositivos de almacenamiento físico para el transporte. Snowball y Snowmobile ayudan a eliminar los desafíos que pueden surgir con las transferencias de datos a gran escala, incluidos los costos de red elevados, los tiempos de transferencia prolongados y los riesgos de seguridad.

Por último, puede usar AWS Direct Connect para establecer conexiones de red dedicadas desde las instalaciones de su empresa a AWS. En muchos casos, Direct Connect puede reducir los costos de red, mejorar el desempeño del ancho de banda y proporcionar una experiencia de red más estable que las conexiones basadas en Internet.

P: ¿Cómo puedo recuperar mis objetos almacenados en S3 Glacier Deep Archive?

Para recuperar los datos almacenados en S3 Glacier Deep Archive, inicie una solicitud “Restaurar” usando las API o la consola de administración de Amazon S3. La solicitud de restauración crea una copia temporal de sus datos en el tipo de almacenamiento S3 One Zone-IA al mismo tiempo que deja los datos archivados intactos en S3 Glacier Deep Archive. Puede especificar durante cuánto tiempo en días se almacenará la copia temporal en S3. A continuación, puede obtener acceso a su copia temporal desde S3 a través de una solicitud GET de Amazon S3 en el objeto archivado.

Al restaurar un objeto archivado, puede especificar una de las siguientes opciones en el elemento Capa del cuerpo de la solicitud: Standard es la capa predeterminada y le permite acceder a cualquiera de los objetos archivados en un plazo de 12 horas y Bulk le permite recuperar grandes volúmenes, incluso petabytes, de datos de manera económica y generalmente se completa en un plazo de 48 horas.

P: ¿Cómo se cobra el uso de S3 Glacier Deep Archive?

El precio del almacenamiento S3 Glacier Deep Archive está basado en la cantidad de datos que almacena en GB, la cantidad de solicitudes de transición de ciclo de vida/PUT, las recuperaciones en GB y la cantidad de solicitudes de restauración. El modelo de precios es similar a S3 Glacier. Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de S3 Glacier Deep Archive.

P: ¿Cómo aparecerá el uso de S3 Glacier Deep Archive en mi factura de AWS y en la herramienta Administración de costos de AWS?

El uso y el costo de S3 Glacier Deep Archive aparecerá como un concepto de servicio independiente en su factura mensual de AWS, separado del uso y los costos de su Amazon S3. No obstante, si usa la herramienta Administración de costos de AWS, el uso y el costo de S3 Glacier Deep Archive estarán incluidos debajo del uso y el costo de Amazon S3 en sus informes detallados de gastos mensuales y no aparecerán detallados como un concepto de servicio independiente.

P: ¿Hay cargos mínimos de almacenamiento de objetos y una duración mínima para S3 Glacier Deep Archive?

S3 Glacier Deep Archive está diseñado para los datos de larga duración a los que se accede raras veces y que se almacenan durante 7 a 10 años o más. Los objetos que se archivan en S3 Glacier Deep Archive tienen un mínimo de 180 días de almacenamiento y, para los objetos que se eliminen antes de 180 días, se aplicará un cargo prorrateado equivalente al cargo de almacenamiento por los días restantes. Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de S3 Glacier Deep Archive.

S3 Glacier Deep Archive tiene un tamaño de almacenamiento de objeto mínimo facturable de 40 KB. Los objetos cuyo tamaño es inferior a 40 KB pueden almacenarse, pero se cobrarán al mismo precio que 40 KB de almacenamiento. Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de S3 Glacier Deep Archive.

 

P: ¿Cómo se integra S3 Glacier Deep Archive con otros servicios de AWS?

S3 Glacier Deep Archive está integrado con las características de Amazon S3, entre ellas, el etiquetado de objetos de S3, las políticas de ciclo de vida de S3, el bloqueo de objetos de S3 y la replicación de S3. Con las características de administración de almacenamiento de S3, puede usar un solo bucket de Amazon S3 para almacenar una combinación de datos de S3 Glacier Deep Archive, S3 Estándar, S3 Estándar - Acceso poco frecuente, S3 Única zona - Acceso poco frecuente y S3 Glacier. Esto permite que los administradores de almacenamiento tomen decisiones en función de la naturaleza de los datos y los patrones de acceso a datos. Los clientes pueden usar las políticas de ciclo de vida de Amazon S3, como la antigüedad de los datos, para migrar automáticamente los datos a tipos de almacenamiento más económicos o las políticas de replicación entre regiones o dentro de las mismas regiones de S3 para replicar datos en la misma región o en una diferente.

El servicio AWS Storage Gateway ahora integra Tape Gateway con el tipo de almacenamiento S3 Glacier Deep Archive, lo que le permite almacenar cintas virtuales en el tipo de almacenamiento de Amazon S3 de menor costo, con lo que se reduce en un 75 % el costo mensual del almacenamiento de datos a largo plazo en la nube. Con esta función, Tape Gateway admite el archivo de sus nuevas cintas virtuales directamente en S3 Glacier y en S3 Glacier Deep Archive, lo que lo ayuda a cumplir con sus requisitos de copia de seguridad, archivo y recuperación. Tape Gateway lo ayuda a trasladar las copias de seguridad basadas en cintas a AWS sin realizar cambios en los flujos de trabajo de las copias de seguridad existentes. Tape Gateway admite la mayoría de las principales aplicaciones de copia de seguridad como Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect (en el SO Windows) y Microsoft Data Protection Manager.

Gestión de almacenamiento

Etiquetas de objetos de S3

P: ¿Qué son las etiquetas de objetos de S3?

Las etiquetas de objetos de S3 son pares de clave-valor aplicados a objetos de S3 que se pueden crear, actualizar o eliminar en cualquier momento durante el ciclo de vida de un objeto. Con ellas, puede crear políticas de Identity and Access Management (IAM), configurar políticas de ciclo de vida de S3 y personalizar métricas de almacenamiento. Entonces, estas etiquetas de nivel de objeto pueden gestionar transferencias entre tipos de almacenamiento y hacer que objetos expiren en segundo plano. Puede agregar etiquetas a nuevos objetos cuando los cargue o puede añadirlas a objetos existentes. Pueden añadirse hasta diez etiquetas a cada objeto de S3, ya sea mediante la consola de administración de AWS, la API REST, la CLI de AWS o los SDK de AWS. 

Para obtener más información, visite la página de la guía de usuario de etiquetas de objetos de S3.

P: ¿Por qué debería usar etiquetas de objetos?

Las etiquetas de objetos son una nueva herramienta que puede utilizar para habilitar la administración sencilla de su almacenamiento en S3. Con la habilidad de crear, actualizar y eliminar etiquetas en cualquier momento durante el ciclo de vida de su objeto, su almacenamiento puede adaptarse a las necesidades de su empresa. Estas etiquetas le permiten controlar el acceso a los objetos etiquetados con pares clave-valor específicos y, de esta manera, reforzar la protección de los datos confidenciales para un único grupo o usuario. Las etiquetas de objeto también se pueden utilizar para etiquetar objetos que pertenezcan a un proyecto o unidad de negocio específicos, que se podrían utilizar junto con las políticas de ciclo de vida de S3 para administrar los traslados a otras clases de almacenamiento (Estándar - Acceso poco frecuente de S3, Única zona - Acceso poco frecuente de S3 y S3 Glacier) o con la replicación de S3 para replicar datos de forma selectiva entre regiones de AWS.

P: ¿Cómo puedo actualizar las etiquetas de mis objetos?

Puede cambiar las etiquetas de objetos en cualquier momento de la vigencia de un objeto de S3, ya sea mediante la consola de administración de AWS, la API REST, la CLI de AWS o los SDK de AWS. No todos los cambios a etiquetas fuera de la consola de administración de AWS se efectúan en todo el conjunto de etiquetas. Si tiene cinco etiquetas adjuntas a un objeto en particular y desea agregar una sexta, tiene que incluir las cinco etiquetas originales en la solicitud.

P: ¿Cuánto cuestan las etiquetas de objetos?

Los precios de las etiquetas de objetos varían en función de la cantidad de etiquetas y de un costo de solicitud para la incorporación de etiquetas. Las solicitudes asociadas con la incorporación y la actualización de etiquetas de objetos tienen el mismo precio que las solicitudes existentes. Para obtener más información, consulte la página de precios de Amazon S3.

P: ¿Cómo puedo comenzar a usar el análisis de tipo de almacenamiento?

Puede usar la consola de administración de AWS o la API de análisis de buckets PUT de S3 para configurar una política de análisis de tipo de almacenamiento a fin de identificar almacenamiento con acceso poco frecuente que se pueda transferir a los tipos de almacenamiento S3 Estándar - Acceso poco frecuente o S3 Única zona - Acceso poco frecuente o archivarse en el tipo S3 Glacier. Puede ir a la pestaña Administración de la consola de S3 para administrar el análisis de tipo de almacenamiento, S3 Inventory y las métricas de CloudWatch para S3.

S3 Inventory

P: ¿Qué es S3 Inventory?

S3 Inventory ofrece una alternativa programada para la API List sincronizada de Amazon S3. Puede configurar S3 Inventory para que suministre el resultado en un archivo con formato CSV, ORC o archivo Parquet de sus objetos y sus metadatos correspondientes una vez al día o a la semana para un prefijo o bucket de S3. Puede simplificar y agilizar las tareas de big data y los flujos de trabajo empresariales con S3 Inventory. Puede usar S3 Inventory para controlar el estado de replicación y cifrado de sus objetos a fin de cumplir requisitos empresariales, de conformidad y normativos. Más información en la guía de usuario de Amazon S3 Inventory.

P: ¿Cómo puedo comenzar a usar S3 Inventory?

Puede usar la consola de administración de AWS o la API PUT Bucket Inventory Configuration para configurar un informe de inventario diario o semanal de todos los objetos de su bucket de S3 o un subconjunto de los objetos bajo un prefijo compartido. Como parte de la configuración, puede especificar un bucket de S3 de destino para su informe de S3 Inventory, el formato del archivo de salida (CSV, ORC o Parquet) y metadatos de objetos específicos necesarios para su aplicación empresarial, como: nombre de objeto, tamaño, última modificación, tipo de almacenamiento, ID de la versión, marcador de eliminación, alerta de versión no actual, alerta de carga multiparte, estado de replicación o estado de cifrado. Puede usar S3 Inventory como entrada directa en sus tareas de big data o flujos de trabajo de aplicaciones. También puede hacer consultas en S3 Inventory con lenguaje SQL estándar mediante Amazon Athena, Amazon Redshift Spectrum y otras herramientas como Presto, Hive y Spark.

Más información en la guía de usuario de Amazon S3 Inventory.

P: ¿Cómo se cobra el uso de S3 Inventory?

Consulte la página de precios de Amazon S3 para obtener más información sobre los precios de S3 Inventory. Una vez que configure el cifrado con SSE-KMS, se aplicarán cargos de KMS por cifrado. Consulte la página de precios de KMS para obtener más información.

Operaciones por lote en S3

P: ¿Qué son las operaciones por lote de S3?

Las operaciones por lote de S3 forman parte de una característica que puede utilizar para automatizar la ejecución de una única operación (como copiar un objeto o ejecutar una función de AWS Lambda) en distintos objetos. Con las operaciones por lote de S3, mediante algunos clics en la consola de S3 o una sola solicitud de API, puede implementar un cambio en miles de millones de objetos sin tener que escribir códigos de aplicación personalizados ni ejecutar clústeres de informática para aplicaciones de administración de almacenamiento. No solo las operaciones por lote de S3 administran sus operaciones de almacenamiento de muchos objetos, sino que además estas operaciones administran los reintentos, muestran el progreso, envían notificaciones, proporcionan un informe de finalización y envían eventos a AWS CloudTrail para todas las operaciones llevadas a cabo en sus objetos meta. Las operaciones por lote de S3 pueden usarse en la consola de S3 o a través de la CLI y el SDK de AWS. 

Para obtener más información, consulte la página de operaciones por lote de S3 o la guía de usuario.

P: ¿Cómo puedo comenzar a usar las operaciones por lote de S3?

Puede comenzar a usar las operaciones por lote de S3 en la consola de Amazon S3 o usando la CLI o el SDK de AWS para crear su primer trabajo de operaciones por lote de S3. Un trabajo de operaciones por lote de S3 consiste en una lista de objetos meta identificados y el tipo de operación que hay que llevar a cabo (consulte la lista completa de operaciones disponibles). Comience seleccionando un informe de S3 Inventory o suministrando su propia lista personalizada de objetos meta para operaciones por lote de S3 identificados. Un informe de S3 Inventory es un archivo que enumera los objetos almacenados en un bucket o prefijo S3. A continuación, elija entre un conjunto de operaciones S3 admitidas en las operaciones por lote de S3, como reemplazar conjuntos de etiquetas, cambiar ACL, copiar almacenamiento de un bucket a otro o iniciar una restauración de Glacier a S3. Puede personalizar sus trabajos de operaciones por lote de S3 con parámetros específicos, por ejemplo, valores de etiquetas, beneficiarios de ACL y duración de la restauración. Para seguir personalizando sus acciones de almacenamiento, puede escribir su propia función de Lambda e invocar ese código mediante las operaciones por lote de S3.

Una vez que cree su trabajo de operaciones por lote de S3, las operaciones por lote de S3 procesarán su lista de objetos y enviarán el trabajo al estado “esperando confirmación” en caso de ser necesario. Después de confirmar los detalles del trabajo, las operaciones por lote de S3 comenzarán a ejecutar la operación especificada. Puede ver el progreso de su trabajo mediante programación o a través de la consola de S3, recibir notificaciones de finalización y revisar un informe de finalización que detalla los cambios realizados en su almacenamiento.

Si está interesado en obtener más información sobre las operaciones por lotes de S3, vea los tutoriales en video y lea la documentación.

Bloqueo de objetos de S3

P: ¿Qué es el bloqueo de objetos de Amazon S3?

El bloqueo de objetos de Amazon S3 es una característica de Amazon S3 que impide que una versión de objeto se elimine o sobrescriba durante un tiempo fijo o indefinido. La característica permite imponer políticas de retención como un nivel adicional de protección de datos o con fines de conformidad normativa. Puede migrar las cargas de trabajo desde sistemas del tipo de escritura única, lectura múltiple (WORM) hacia Amazon S3 y configurar el bloqueo de objetos de S3 en el nivel de objeto y de bucket para evitar la eliminación de una versión del objeto con anterioridad a la fecha que figura en Retener hasta o indefinidamente en Retención legal. La protección del bloqueo de objetos de S3 se mantiene independientemente del tipo de almacenamiento en el que resida la versión del objeto y durante las transiciones de ciclo de vida de S3 entre tipos de almacenamiento. 

Debería usar el bloqueo de objetos de S3 si tiene requisitos normativos que especifiquen que los datos deben estar protegidos por WORM, o si desea agregar una capa adicional de protección a los datos en Amazon S3. El bloqueo de objetos de S3 puede ayudarle a cumplir con los requisitos normativos que especifican que los datos deben almacenarse en formato inmutable. Además, puede brindar protección contra la eliminación accidental o intencional de los datos en Amazon S3.

Para obtener más información, visite la página de la guía de usuario de bloqueo de objetos de S3.

P: ¿Cómo funciona el bloqueo de objetos de Amazon S3?

El bloqueo de objetos de Amazon S3 impide que se elimine una versión de un objeto durante un periodo de retención especificado o indefinidamente hasta que se elimine una retención legal. Con el bloqueo de objetos de S3, puede asegurarse de que una versión de un objeto permanezca inmutable mientras se aplique la protección WORM. Puede implementar la protección de WORM mediante la asignación de una fecha en Retener hasta o en Retención legal a una versión de objeto con el SDK de AWS, la CLI, la API de REST o la consola de administración de S3. Puede implementar la configuración de retención dentro de una solicitud PUT o implementarla en un objeto existente después de su creación.

La fecha que figura en Retener hasta define la duración por la que la versión de objeto permanecerá inmutable. Una vez asignada la fecha en Retener hasta a un objeto, esa versión del objeto no podrá modificarse o eliminarse hasta que haya transcurrido esta fecha. Si un usuario intenta eliminar un objeto antes de la fecha en Retener hasta, la operación se rechazará.

A modo de alternativa, puede hacer que un objeto sea inmutable mediante la aplicación de una retención legal. Una retención legal impide que una versión de un objeto se modifique o se borre indefinidamente hasta que se elimine explícitamente. Para poder colocar y eliminar retenciones legales, su cuenta de AWS debe tener permiso de escritura para la acción PutObjectLegalHold. Se puede implementar una retención legal en un bucket compatible con el bloqueo de objetos de S3, independientemente de si este objeto cuenta o no con protección de WORM durante un periodo de retención.

El bloqueo de objetos de S3 puede configurarse en uno de dos modos. Cuando se implementa en modo Gobernanza, las cuentas de AWS con permisos de IAM específicos pueden eliminar la protección de WORM de una versión de objetos. Si se requiere mayor inmutabilidad para cumplir las normativas, puede utilizar el modo de conformidad. En el modo Conformidad, ningún usuario puede eliminar la protección de WORM, ni siquiera la cuenta raíz.

P: ¿Qué servicios de almacenamiento electrónico de AWS se han evaluado en función de la normativa de servicios financieros?

Para los clientes de la industria de servicios financieros, el bloqueo de objetos de S3 ofrece soporte adicional para agentes de bolsa que deben conservar registros en un formato no borrable y no rescribible para cumplir con los requisitos normativos de la Regla SEC 17a-4(f), Regla 4511 de FINRA o Regulación CFTC 1.31. Puede designar fácilmente el plazo de retención de registros para conservar los archivos reguladores en la forma original durante la duración requerida y también colocar retenciones legales para conservar datos indefinidamente hasta que se elimine la retención.

P: ¿Qué documentación de AWS es compatible con los requisitos de SEC 17a-4(f)(2)(i) y CFTC 1.31(c) para la notificación a mi regulador?

Notifique a su regulador o a la Autoridad Examinadora Designada (DEA) su elección de utilizar Amazon S3 Glacier para el almacenamiento electrónico, además de proporcionarle una copia del documento Cohasset Assessment. En lo referente a estos requisitos, AWS no es un tercero designado (D3P). Asegúrese de seleccionar un D3P e incluir la información en su notificación a la DEA.

Métricas de CloudWatch para S3

P: ¿Cómo puedo comenzar a utilizar las métricas de CloudWatch para S3?

Puede utilizar la consola de administración de AWS para habilitar la generación de métricas de solicitudes de CloudWatch de un minuto para su bucket de S3 o configurar filtros para las métricas con un prefijo o una etiqueta de objeto. Opcionalmente, puede llamar a la API PUT Bucket Metrics de S3 para que habilite y configure la publicación de métricas de almacenamiento de S3. Las métricas de solicitudes de CloudWatch estarán disponibles en CloudWatch a los 15 minutos de habilitarse. Las métricas de almacenamiento de CloudWatch están habilitadas de forma predeterminada para todos los buckets y se reportan una vez por día. Más información sobre las métricas de CloudWatch para Amazon S3

P: ¿Qué alarmas puedo configurar en mis métricas de almacenamiento?

Puede usar CloudWatch para definir umbrales en cualquiera de los recuentos, temporizadores o tasas de las métricas de almacenamiento y activar una acción cuando se supere el valor. Por ejemplo, puede configurar un umbral en función del porcentaje de respuestas de error 4xx y que, cuando al menos 3 puntos de datos superen el umbral, que se active una alarma de CloudWatch para alertar a un ingeniero de DevOps.

P: ¿Cómo se cobra el uso de las métricas de CloudWatch para S3?

Las métricas de almacenamiento de CloudWatch son gratuitas. Los precios de las métricas de solicitudes de CloudWatch son los mismos que los de las métricas personalizadas de Amazon CloudWatch. Consulte la página de precios de Amazon CloudWatch para obtener información general sobre los precios de las métricas de CloudWatch para S3.

Administración del ciclo de vida de S3

P: ¿Qué es la administración del ciclo de vida de S3?

La administración del ciclo de vida de S3 proporciona la capacidad de definir el ciclo de vida de su objeto con una política predefinida y reducir su costo de almacenamiento. Puede definir una política de transición de ciclo de vida para migrar automáticamente objetos almacenados en el tipo de almacenamiento S3 Estándar a los tipos de almacenamiento S3 Estándar - Acceso poco frecuente, S3 Única zona - Acceso poco frecuente o S3 Glacier en función de la antigüedad de los datos. También puede definir políticas de vencimiento del ciclo de vida para eliminar objetos automáticamente en función de su antigüedad. Puede definir una política para el vencimiento de carga multiparte, que asigna un vencimiento a la carga multiparte incompleta en función de su antigüedad.

Para obtener más información, visite la página de la guía de usuario de ciclo de vida de S3.

P: ¿Cómo configuro una política de administración del ciclo de vida de S3?

Puede configurar y administrar políticas del ciclo de vida en la consola de administración de AWS, la API REST de S3, los SDK de AWS o la interfaz de línea de comandos (CLI) de AWS. Puede especificar la política en el prefijo o en el nivel de bucket.

P: ¿Cómo puedo usar la administración del ciclo de vida de Amazon S3 para reducir mis costos de almacenamiento de Amazon S3?

Con las políticas de ciclo de vida de Amazon S3, puede configurar sus objetos para que se migren desde el tipo de almacenamiento S3 Estándar a S3 Estándar - Acceso poco frecuente o S3 Única zona - Acceso poco frecuente o se archiven en S3 Glacier. También puede especificar una política de ciclo de vida de S3 para eliminar objetos una vez transcurrido un período de tiempo determinado. Puede utilizar esta automatización basada en políticas para reducir de forma rápida y sencilla los costos de almacenamiento, además de ahorrar tiempo. En cada regla puede especificar un prefijo, un período de tiempo, una transición a S3 Estándar - Acceso poco frecuente, S3 Única zona - Acceso poco frecuente o S3 Glacier, o un vencimiento. Por ejemplo, podría crear una regla que archivara en S3 Glacier todos los objetos con el prefijo común “logs/” 30 días después de su creación, y que les aplicara un vencimiento de 365 días después de su creación. También puede crear una regla independiente que solo aplique un vencimiento a todos los objetos con el prefijo “backups/” 90 días después de su creación. Las políticas de ciclo de vida de S3 se aplican a objetos de S3 tanto nuevos como existentes, lo que le ayuda a optimizar el almacenamiento y maximizar el ahorro en costos para todos los datos actuales y los datos nuevos que se ubiquen en S3 sin necesidad de realizar una revisión y migración de datos manual y laboriosa. Dentro de una regla del ciclo de vida, el campo de prefijo identifica los objetos sujetos a la regla. Para aplicar la regla a un objeto individual, especifique el nombre de clave. Para aplicar la regla a un conjunto de objetos, especifique su prefijo común (por ejemplo, “logs/”). Puede especificar una acción de transición para archivar los objetos y una acción de vencimiento para eliminar los objetos. En cuanto al periodo de tiempo, proporcione la fecha de creación (por ejemplo, 31 de enero de 2015) o el número de días desde la fecha de creación (por ejemplo, 30 días) tras el cual desea que los objetos se archiven o eliminen. Puede crear varias reglas para distintos prefijos.

P: ¿Cuánto cuesta el uso de la administración del ciclo de vida de S3?

No se aplica un costo adicional por configurar y aplicar políticas del ciclo de vida. Una solicitud de transición se cobra por objeto cuando un objeto es apto para la transición según la regla del ciclo de vida. Para obtener más información sobre precios, visite la página de precios de S3.

P: ¿Por qué debería utilizar una política del ciclo de vida de S3 para el vencimiento de cargas multiparte incompletas?

La política sobre el ciclo de vida de S3 que aplica un vencimiento a las cargas multiparte incompletas le permite ahorrar en costos al limitar el tiempo que se almacenan las cargas multiparte no completadas. Por ejemplo, si su aplicación carga varias partes de objetos multiparte, pero no llega a confirmarlas, se le seguirá cobrando por ese almacenamiento. Esta política puede reducir su factura de almacenamiento de S3 al eliminar automáticamente las cargas multiparte incompletas y el almacenamiento asociado tras un número predefinido de días.

Obtenga más información sobre el uso del ciclo de vida de S3 para definir el vencimiento de cargas multiparte incompletas »

Análisis e información de almacenamiento

P: ¿Qué características están disponibles para analizar el uso de almacenamiento en Amazon S3?

S3 Storage Lens brinda visibilidad en toda la organización del uso de almacenamiento de objetos y las tendencias de actividad y realiza recomendaciones prácticas para mejorar la rentabilidad y aplicar prácticas recomendadas de protección de datos. El análisis de tipo de almacenamiento de S3 permite monitorear los patrones de acceso de objetos para ayudarlo a decidir cuándo transferir los datos al tipo de almacenamiento adecuado para optimizar los costos. Luego puede utilizar esta información para configurar una política de ciclo de vida de S3 que realice la transferencia de datos. Amazon S3 Inventory proporciona a diario o semanalmente un informe de sus objetos y sus metadatos correspondientes para un bucket o prefijo S3. Este informe se puede utilizar para controlar el estado de replicación y cifrado de sus objetos a fin de cumplir requisitos empresariales, de conformidad y normativos.

P: ¿Qué es Amazon S3 Storage Lens?

Amazon S3 Storage Lens brinda visibilidad en toda la organización del uso de almacenamiento de objetos y tendencias de actividad y realiza recomendaciones prácticas para mejorar la rentabilidad y aplicar prácticas recomendadas de protección de datos. Storage Lens ofrece un panel de control interactivo con una vista única del uso de almacenamiento de objetos y la actividad en una organización, ya sean diez o cientos de cuentas, con la capacidad de realizar desgloses para obtener información a nivel de cuenta, bucket o incluso de prefijo. Esto incluye métricas como bytes, recuentos de objetos y solicitudes, así como métricas que detallan la utilización de las características de S3, como recuentos de objetos cifrados y recuentos de marcadores de eliminación. S3 Storage Lens brinda también recomendaciones contextuales con las que puede reducir los costos de almacenamiento y aplicar prácticas recomendadas sobre protección de datos en decenas o cientos de cuentas y buckets.

Para obtener más información, visite la página de la guía de usuario de Storage Lens de S3.

P: ¿Cómo funciona S3 Storage Lens?

S3 Storage Lens combina el uso del almacenamiento y las métricas de actividad a diario para verlos en el panel de control interactivo de S3 Storage Lens, o tenerlos disponibles como una exportación de métricas en formato de archivo CVS o Parquet. Se crea de forma automática un panel predeterminado a nivel de cuenta y tiene la opción de crear paneles de control personalizados adicionales en el ámbito de su organización de AWS o cuentas, regiones o buckets específicos. Para configurar el panel de control, puede usar la selección de métricas predeterminadas o recibir métricas y recomendaciones avanzadas por un costo adicional. S3 Storage Lens proporciona recomendaciones contextualizadas con métricas de almacenamiento en el panel de control para que pueda tomar medidas que optimicen el almacenamiento en función de las métricas.

P: ¿Cuáles son las preguntas clave que se pueden responder con las métricas de S3 Storage Lens?

El panel de control de S3 Storage Lens está organizado en torno a tres tipos principales de preguntas sobre el almacenamiento. En la vista Resumen, se pueden explorar preguntas de nivel superior relacionadas con el uso general del almacenamiento y las tendencias de actividad. Por ejemplo, “¿con qué rapidez aumenta el número total de bytes y el número de solicitudes con el tiempo?” En la vista Rentabilidad, puede explorar preguntas relacionadas con la reducción de costos de almacenamiento. Por ejemplo, “¿puedo ahorrar dinero al retener menos versiones no actuales?” Y en la vista Protección de datos puede responder preguntas sobre cómo proteger los datos. Por ejemplo, “¿mi almacenamiento está protegido contra la eliminación accidental o intencional?” Cada una de estas preguntas representa una primera capa de investigación que probablemente conduzca a un análisis detallado.

P: ¿Qué métricas se encuentran disponibles en S3 Storage Lens?

S3 Storage Lens contiene más de 30 métricas, agrupadas por uso (que se obtienen de una instantánea diaria de los objetos en la cuenta) y actividad (que rastrean las solicitudes y los bytes recuperados). Las métricas están organizadas en tres categorías principales: resumen, rentabilidad y protección de datos. Además, también se proporcionan métricas derivadas al combinar cualquier métrica base. Por ejemplo, la “Tasa de recuperación” se calcula al dividir el “Recuento de bytes descargados” por el “Recuento total de bytes.” Para ver la lista completa de métricas, consulte la documentación de S3 Storage Lens.

P: ¿Cuáles son las opciones de configuración en mi panel de control?

Un panel de control predeterminado se configura de forma automática para toda la cuenta y tiene la opción de crear paneles personalizados adicionales en el ámbito de la organización de AWS o regiones o buckets específicos dentro de una cuenta. Puede configurar varios paneles de control personalizados, que pueden ser útiles si necesita alguna separación lógica en su análisis de almacenamiento, como segmentar en buckets para representar varios equipos internos. De forma predeterminada, el panel de control recibirá las métricas gratuitas de S3 Storage Lens, pero tiene la opción de actualizar el servicio para recibir métricas y recomendaciones avanzadas de S3 Storage Lens. Además, para cada panel puede habilitar la exportación de métricas, con opciones adicionales para especificar el bucket de destino y el tipo de cifrado.

P: ¿Cuántos datos históricos hay disponibles en S3 Storage Lens?

Para las métricas que se muestran en el panel de control interactivo, las métricas gratuitas de Storage Lens retienen 14 días de datos históricos mientras que las métricas y recomendaciones avanzadas retienen 15 meses de datos históricos. Para la exportación opcional de métricas, puede configurar cualquier periodo de retención que desee y se aplicarán los cargos de almacenamiento estándar de S3.

P: ¿Cómo se cobra el uso de S3 Storage Lens?

S3 Storage Lens está disponible en dos niveles de métricas. Las métricas gratuitas están disponibles para todos los clientes sin costo adicional. Los detalles de precios de recomendaciones y métricas avanzadas de S3 Storage Lens están disponibles en la página de precios de S3. Con las métricas gratuitas de S3 Storage Lens, recibe métricas de uso a nivel bucket y cuenta con 14 días de datos históricos en el panel de control. Con las métricas y recomendaciones avanzadas de S3 Storage Lens, recibe métricas de uso a nivel prefijo, métricas de actividad, recomendaciones y cuenta con 15 meses de datos históricos en el panel de control.

P: ¿Cuál es la diferencia entre S3 Storage Lens y S3 Inventory?

S3 Inventory proporciona una lista de los objetos y metadatos correspondientes para un bucket de S3 o un prefijo compartido, que se puede utilizar para realizar un análisis a nivel de objeto del almacenamiento. S3 Storage Lens proporciona métricas agregadas por organización, cuenta, región, tipo de almacenamiento, bucket y niveles de prefijo, lo que permite ver mejor el almacenamiento en toda la organización.

P: ¿Cuál es la diferencia entre S3 Storage Lens y el análisis de tipo de almacenamiento de S3 (SCA)?

El análisis de tipo de almacenamiento de S3 proporciona recomendaciones para un tipo de almacenamiento óptimo mediante la creación de grupos de edad de objeto basado en los patrones de acceso a nivel de objeto dentro de un bucket/prefijo/ etiqueta individual para los 30 a 90 días anteriores. S3 Storage Lens proporciona recomendaciones diarias a nivel de organización sobre formas de mejorar la rentabilidad y aplicar las mejores prácticas de protección de datos, con recomendaciones adicionales detalladas por cuenta, región, tipo de almacenamiento, bucket o prefijo.  

Análisis de tipo de almacenamiento

P: ¿Qué es un análisis de tipo de almacenamiento?

Con el análisis de tipo de almacenamiento, puede analizar los patrones de acceso al almacenamiento a fin de determinar el tipo de almacenamiento óptimo para su almacenamiento. La característica de S3 identifica automáticamente los patrones de uso poco frecuente para ayudarle a transferir almacenamiento a S3 Estándar - Acceso poco frecuente. Puede configurar una política de análisis de tipo de almacenamiento para monitorear un bucket entero, un prefijo o una etiqueta de objeto. Una vez que se observe un patrón de acceso poco frecuente, podrá crear con facilidad una nueva política de ciclo de vida de S3 en función de los resultados. El análisis de tipo de almacenamiento también proporciona visualizaciones diarias del uso de su almacenamiento en la consola de administración de AWS y, además, puede habilitar un informe de exportación a un bucket de S3 para analizarlas con las herramientas de inteligencia empresarial que desee, como Amazon QuickSight.

Obtenga más información y comience por visitar la guía de usuario del análisis de tipos de almacenamiento de S3.

P: ¿Con qué frecuencia se actualiza el análisis de tipo de almacenamiento?

El análisis del tipo de almacenamiento se actualiza a diario en la consola de administración de S3, pero las recomendaciones iniciales para las transiciones del tipo de almacenamiento se proporcionan después de 30 días.

Consultas in situ

P: ¿Qué es la funcionalidad “consultas in situ”?

Amazon S3 permite a los clientes ejecutar consultas sofisticadas en datos almacenados sin la necesidad de migrar datos a una plataforma de análisis diferente. La capacidad para consultar estos datos in situ en Amazon S3 puede aumentar significativamente el desempeño y reducir el costo de soluciones de análisis que utilizan S3 como lago de datos. S3 ofrece varias opciones de consulta in situ, que incluyen S3 Select, Amazon Athena y Amazon Redshift Spectrum, lo que le permite elegir la que mejor se adapte a su caso de uso. Inclusive puede usar Amazon S3 Select con AWS Lambda para crear aplicaciones sin servidor que puedan aprovechar las capacidades de procesamiento in situ que provee S3 Select.

P: ¿Qué es S3 Select?

S3 Select es una característica de Amazon S3 que facilita la recuperación de datos específicos de contenido en un objeto con expresiones SQL simples sin tener que recuperar el objeto entero. S3 Select simplifica y mejora el desempeño del sondeo y el filtrado del contenido de objetos en conjuntos de datos menores y específicos en hasta un 400 %. Con S3 Select, también puede realizar investigaciones operativas en archivos de registro en Amazon S3 sin la necesidad de usar ni administrar un clúster de cómputo. 

Puede utilizar S3 Select para recuperar un subconjunto de datos utilizando cláusulas SQL, como SELECT y WHERE, desde objetos almacenados en formato CSV, JSON o Apache Parquet. También funciona con objetos comprimidos con GZIP o BZIP2 (solo para objetos CSV y JSON), así como con objetos cifrados del lado del servidor.

Puede usar S3 Select con AWS Lambda para crear aplicaciones sin servidor que usen S3 Select para recuperar datos de manera eficiente y sencilla de Amazon S3 en vez de recuperar y procesar el objeto entero. También puede usar S3 Select con marcos de Big Data, como Presto, Apache Hive y Apache Spark para sondear y filtrar datos en Amazon S3.

Para obtener más información, visite la página de la guía de usuario de S3 Select.

P: ¿Qué es Amazon Athena?

Amazon Athena es un servicio de consultas interactivo que facilita el análisis de datos en Amazon S3 con consultas SQL estándar. Athena no tiene servidor, por lo que no es necesario configurar ni administrar infraestructura, y puede comenzar a analizar los datos al instante. Ni siquiera tiene que cargar los datos en Athena, ya que funciona directamente con los datos almacenados en cualquier tipo de almacenamiento de S3. Para comenzar, inicie sesión en la consola de administración de Athena, defina sus esquemas y comience a realizar consultas. Amazon Athena utiliza Presto con compatibilidad absoluta con SQL estándar y admite varios formatos de datos estándar, como CSV, JSON, ORC, Apache Parquet y Avro. Si bien Athena es ideal para realizar consultas ad-hoc rápidas y se integra con Amazon QuickSight para una visualización sencilla, también es capaz de realizar análisis complejos, incluidas cadenas de gran tamaño, funciones de períodos y matrices.

P: ¿Qué es Amazon Redshift Spectrum?

Amazon Redshift Spectrum es una característica de Amazon Redshift que le permite ejecutar consultas en exabytes de datos no estructurados en Amazon S3 sin la necesidad de cargarlos ni de recurrir a la extracción, transformación y carga (ETL). Cuando emite una consulta, va al punto de enlace de Amazon Redshift SQL, lo que genera y optimiza un plan de consulta. Amazon Redshift determina qué datos son locales y cuáles se encuentran en Amazon S3, genera un plan para minimizar el volumen de datos de Amazon S3 que necesita leerse, solicita a los empleados de Redshift Spectrum un grupo de recursos compartidos para leer y procesar datos de Amazon S3.

Redshift Spectrum escala a miles de instancias de ser necesario, por lo que las consultas se ejecutan rápidamente independientemente del volumen de los datos. Además, puede usar exactamente los mismos datos de SQL for Amazon S3 que utiliza en la actualidad para sus consultas en Amazon Redshift y conectarse al mismo punto de enlace de Amazon Redshift con sus herramientas de BI. Redshift Spectrum permite separar el almacenamiento de la capacidad informática, por lo que puede escalar cada función de forma independiente. Puede configurar tantos clústeres de Amazon Redshift como necesite para realizar consultas en su lago de datos de Amazon S3, lo que brinda alta disponibilidad y simultaneidad ilimitada. Redshift Spectrum ofrece la posibilidad de almacenar los datos donde desee, en el formato que quiera, de modo que se encuentren disponibles para procesarlos cuando los necesite.

Replicación

P: ¿Qué es la replicación de Amazon S3?

La replicación de Amazon S3 permite la copia automática y asíncrona de objetos en los buckets de Amazon S3. Los buckets que estén configurados para la replicación de objetos pueden pertenecer a la misma cuenta de AWS o a cuentas diferentes. Puede copiar objetos en uno o más buckets de destino entre regiones de AWS diferentes (replicación entre regiones de S3) o dentro de la misma región de AWS (replicación en la misma región de S3). Para obtener más información, visite la página de la guía de usuario de replicación de S3.

P: ¿En qué consiste la replicación entre diferentes regiones (CRR) de Amazon S3?

La CRR es una característica de Amazon S3 que replica datos automáticamente entre buckets en regiones de AWS diferentes. Con la CRR, puede configurar la replicación en un nivel de bucket, un nivel de prefijo compartido o un nivel de objeto mediante etiquetas de objeto de S3. Puede utilizar la replicación entre diferentes regiones para facilitar una menor latencia en el acceso a datos situados en otras regiones geográficas. La replicación entre diferentes regiones también puede resultarle útil si, por exigencias normativas, necesita almacenar copias de los datos a cientos de kilómetros de distancia. Puede utilizar la CRR para modificar el propietario de una cuenta de objetos replicados a fin de proteger los datos de una eliminación accidental. Para obtener más información, visite la guía de usuario de CRR de S3.

P: ¿En qué consiste la replicación dentro de una misma región (SRR) de Amazon S3?

La SRR es una característica de Amazon S3 que replica datos automáticamente entre buckets dentro de una misma región de AWS. Con la SRR, puede configurar la replicación en un nivel de bucket, un nivel de prefijo compartido o un nivel de objeto mediante etiquetas de objeto de S3. Puede usar la SRR para crear una o más copias de los datos en la misma región de AWS. La SRR le permite cumplir con los requisitos de conformidad y soberanía de datos porque conserva una copia de los datos en una cuenta de AWS independiente en la misma región que la cuenta original. Puede utilizar la SRR para modificar el propietario de una cuenta de objetos replicados a fin de proteger los datos de una eliminación accidental. También puede usar la SRR para combinar fácilmente registros de diferentes buckets de S3 a fin de hacer procesamientos dentro de la región o para configurar la replicación en vivo entre los entornos de prueba y desarrollo. Para obtener más información, consulte la guía de usuario de SRR de S3.

P: ¿Cómo activo la replicación de Amazon S3 (replicación entre regiones y replicación en la misma región)?

La replicación de Amazon S3 (CRR y SRR) se configura en un nivel de bucket de S3, un nivel de prefijo compartido o un nivel de objeto mediante etiquetas de objeto de S3. Para agregar una configuración de replicación en el bucket de origen es necesario especificar un bucket de destino en la misma región o en una región diferente de AWS para su replicación.

Puede utilizar la consola de administración de S3, la API, la CLI de AWS, los SDK de AWS o AWS CloudFormation para habilitar la replicación. Para habilitar la replicación, es necesario tener activado el control de versiones tanto en el bucket de origen como en el de destino. Para obtener más información, consulte la sección Información general de configuración de la replicación en la guía para desarrolladores de Amazon S3.

P: ¿Puedo usar la replicación de S3 (CRR y SRR) con las reglas de ciclo de vida de S3?

Con la replicación de S3 (CRR y SRR), puede definir reglas de replicación para generar copias de sus objetos en otra clase de almacenamiento, en la misma región o en una diferente. Las acciones de ciclo de vida no se replican, por lo que si desea implementar la misma configuración de ciclo de vida tanto en el bucket de origen como de destino, deberá activar la misma configuración de ciclo de vida en ambos. 

Por ejemplo, puede configurar una regla de ciclo de vida para migrar datos del tipo de almacenamiento S3 Estándar al tipo Estándar - Acceso poco frecuente de S3 o Única zona - Acceso poco frecuente de S3 o para archivar datos en S3 Glacier en el bucket de destino.

Puede encontrar más información sobre la configuración del ciclo de vida y la replicación en la Guía para desarrolladores sobre la replicación de S3. 

P: ¿Puedo usar la replicación S3 para replicar en más de un bucket de destino?

Sí. La replicación de S3 permite a los clientes replicar sus datos en varios buckets de destino, en la misma o en diferentes regiones de AWS. Al realizar la configuración, simplemente especifique el nuevo bucket de destino en la configuración de replicación existente o cree una nueva configuración de replicación con varios buckets de destino. Para cada nuevo destino que especifique, tiene la flexibilidad de elegir el tipo de almacenamiento del bucket de destino, el tipo de cifrado, las métricas y notificaciones de replicación, el control del tiempo de replicación (RTC) y otras propiedades.

P: ¿Puedo usar la replicación de S3 para configurar la replicación bidireccional entre buckets de S3?

Sí. Para configurar la replicación bidireccional, cree una regla de replicación del bucket A al bucket B y configure otra regla de replicación del bucket B al bucket A. Asegúrese de habilitar la sincronización de modificación de la réplica en los buckets A y B para replicar los cambios de metadatos de la réplica como un objeto de listas de control de acceso (ACL), etiquetas de objetos o bloqueos de objetos en los objetos replicados.

P: ¿Puedo usar la replicación en cuentas de AWS para obtener protección contra eliminaciones accidentales o malintencionadas?

Sí, para CRR y SRR, puede configurar la replicación en todas las cuentas de AWS a fin de almacenar sus datos replicados en una cuenta diferente en la región de destino. Puede usar la sobrescritura de propiedad en la configuración de la replicación para mantener una pila de propiedad diferente entre el origen y el destino, y otorgar la propiedad de la cuenta de destino al almacenamiento replicado.

P: ¿Se replicarán las etiquetas de mis objetos si utilizo la replicación entre diferentes regiones?

Las etiquetas de objetos admiten la replicación entre diferentes regiones de AWS. Para clientes con la replicación entre diferentes regiones ya habilitada, se requieren nuevos permisos para replicar las etiquetas. Para obtener más información sobre cómo configurar la replicación entre diferentes regiones, consulte Cómo configurar la replicación entre diferentes regiones en la Guía para desarrolladores de Amazon S3.

P: ¿Qué es el control del tiempo de replicación de Amazon S3?

El control del tiempo de replicación de Amazon S3 proporciona un rendimiento de replicación predecible y lo ayuda a cumplir con los requerimientos empresariales o de conformidad. El control del tiempo de replicación de S3 está diseñado para replicar la mayoría de los objetos en cuestión de segundos: el 99 % de los objetos en hasta 5 minutos y el 99,99 % de los objetos en hasta 15 minutos. El control del tiempo de replicación de S3 está respaldado por un compromiso del acuerdo de nivel de servicio (SLA), según el cual el 99,9 % de los objetos se replicará en un plazo de 15 minutos por cada par de regiones durante cualquier mes de facturación. El tiempo de replicación es compatible con todas las características de replicación de S3. Si desea leer más información, consulte la guía para desarrolladores sobre replicación.

P: ¿Cómo activo el control del tiempo de replicación de Amazon S3?

El control del tiempo de replicación de Amazon S3 está habilitado como una opción para cada regla de replicación. Puede crear una política de replicación de S3 nueva con control del tiempo de replicación de S3 o activar la característica en una política existente.

Puede utilizar la consola de administración de S3, la API, la CLI de AWS, los SDK de AWS o AWS CloudFormation para configurar la replicación. Para obtener más información, consulte la sección Información general de configuración de la replicación en la Guía para desarrolladores de Amazon S3.

P: ¿Qué son los eventos y las métricas de replicación de Amazon S3?

Los eventos y las métricas de replicación de Amazon S3 ofrecen visibilidad sobre la replicación de Amazon S3. Con las métricas de replicación de S3, puede controlar la cantidad total de operaciones y el tamaño de los objetos que aún no se replicaron y la latencia de replicación entre los buckets de origen y de destino de cada regla de replicación de S3. Las métricas de replicación se encuentran disponibles en la consola de administración de Amazon S3 y en Amazon CloudWatch. Los eventos de replicación de S3 notificarán las fallas de replicación para que pueda diagnosticar los problemas rápidamente y corregirlos. Si tiene activado el control de tiempo de replicación de S3 (S3 RTC) también recibirá notificaciones tanto cuando un objeto demore más de 15 minutos en replicarse como cuando se replique correctamente en el destino. Al igual que otros eventos de Amazon S3, los eventos de la replicación de S3 se encuentran disponibles mediante Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) o AWS Lambda.

P: ¿Cómo activo los eventos y las métricas de replicación de Amazon S3?

Las métricas y los eventos de replicación de Amazon S3 se pueden activar para las reglas de replicación nuevas o existentes y se activan de manera predeterminada para las reglas de control del tiempo de replicación de S3. Puede acceder a las métricas de replicación de S3 en la consola de administración de Amazon S3 y Amazon CloudWatch. Al igual que otros eventos de Amazon S3, los eventos de la replicación de S3 se encuentran disponibles mediante Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) o AWS Lambda. Para obtener más información, consulte Monitoreo del avance con las métricas de replicación y las notificaciones de eventos de Amazon S3 en la guía para desarrolladores de Amazon S3.

P: ¿Qué es el acuerdo de nivel de servicio (SLA) del control del tiempo de replicación de Amazon S3?

El control del tiempo de replicación de Amazon S3 se diseñó para replicar el 99,99 % de los objetos en un plazo máximo de 15 minutos y cuenta con el respaldo del acuerdo de nivel de servicio. Si menos del 99,9 % de los objetos se replican en 15 minutos en un par de regiones de replicación durante un ciclo de facturación mensual, el acuerdo de nivel de servicio de S3 RTC prevé un crédito de servicio para cualquier objeto que haya tardado más de 15 minutos en replicarse. El crédito para el servicio cubre un porcentaje de todos los cargos relacionados con la replicación que estén asociados con los objetos que no cumplieron el acuerdo, que incluye la tarifa del control del tiempo de replicación, los cargos de solicitudes y ancho de banda de la replicación y el costo asociado con el almacenamiento de réplicas en la región de destino en el ciclo de facturación mensual en cuestión. Para obtener más información, consulte la sección sobre el acuerdo de nivel de servicio del control del tiempo de replicación de S3.

P: ¿Cuál es el esquema de precios de la replicación de S3 y el control del tiempo de replicación de S3?

Para la replicación S3 (replicación entre regiones y replicación en la misma región), paga los cargos de S3 por almacenamiento en los tipos de almacenamiento S3 de destino seleccionados, los cargos de almacenamiento para la copia principal, las solicitudes PUT de replicación y la tarifas de recuperación de almacenamiento de acceso no frecuente que se apliquen. Para CRR, también paga la transferencia de datos saliente entre regiones desde S3 a la región de destino. Las métricas de replicación de S3 se facturan al mismo precio que las métricas personalizadas de Amazon CloudWatch. Además, cuando utiliza el control del tiempo de replicación de S3, también paga una tarifa de transferencia de datos de control del tiempo de replicación. Para obtener más información, consulte la página de precios de S3.

Si se carga el objeto de origen a través de la característica de carga multiparte, se replicará usando el mismo número de partes y tamaño de parte. Por ejemplo, si carga un objeto de 100 GB a través de la carga multiparte (800 partes de 128 MB cada una), se aplicarán costos asociados a 802 solicitudes (800 solicitudes de carga de las partes + 1 solicitud para iniciar la carga multiparte + 1 solicitud para completar la carga multiparte) al replicar. Tendrá un cargo de 0,00401 USD (802 solicitudes x 0,005 USD por 1000 solicitudes) y (si la replicación se realizó entre regiones de AWS diferentes) un cargo de 2,00 USD (0,020 USD por GB transferido x 100 GB) para transferencias de datos entre regiones. Tras la replicación, los 100 GB generarán cargos de almacenamiento en función de la región de destino.

P: ¿Puedo replicar marcadores de eliminación de un bucket a otro?

Sí, puede replicar marcadores de eliminación del bucket de origen al de destino si tiene activada la replicación de marcadores de eliminación en la configuración de la replicación. Cuando replica los marcadores de eliminación, Amazon S3 se comportará como si el objeto se hubiera eliminado en ambos buckets. Puede activar la replicación del marcador de eliminación en una regla de replicación nueva o existente. Puede aplicar la replicación del marcador de eliminación a todo el bucket o a objetos de Amazon S3 que tengan un prefijo específico, con reglas de replicación basadas en el prefijo. La replicación de Amazon S3 no admite la replicación del marcador de eliminación para las reglas de replicación basadas en etiquetas de objetos. Para obtener más información sobre cómo activar la replicación del marcador de eliminación, consulte Replicación del marcador de eliminación de un bucket a otro.

P: ¿Puedo replicar datos de otras regiones de AWS a China? ¿Un cliente puede replicar de un bucket en la región de China a otras regiones fuera de China?

No, la replicación de Amazon S3 no está disponible entre las regiones de AWS en China y las regiones de AWS fuera de China. Solo se puede replicar dentro de las regiones de China.

Procesamiento de datos

Object Lambda

P: ¿En qué consiste S3 Object Lambda?

S3 Object Lambda le permite agregar su propio código a las solicitudes GET de S3 para modificar y procesar los datos a medida que se devuelven a una aplicación. Por primera vez, es posible utilizar código personalizado para modificar los datos devueltos por las solicitudes GET de S3 estándares para filtrar filas, ajustar el tamaño de las imágenes de forma dinámica, suprimir datos confidenciales y mucho más. S3 Object Lambda le ayuda a cumplir con facilidad los requisitos de formato de datos únicos de cualquier aplicación sin tener que crear y operar infraestructura adicional, como una capa de proxy, o crear y mantener varias copias derivativas de sus datos. S3 Object Lambda utiliza funciones de AWS Lambda para procesar automáticamente la salida de una solicitud GET de S3 estándar. AWS Lambda es un servicio informático sin servidores que ejecuta código definido por el cliente sin necesidad de administrar los recursos informáticos subyacentes. 

Con tan solo unos clics en la consola de administración de AWS, puede configurar una función Lambda y asociarla a un punto de enlace de servicio de S3 Object Lambda. A partir de ese punto, S3 llamará automáticamente a la función de Lambda para procesar cualquier dato recuperado a través del punto de enlace de S3 Object Lambda, para devolver un resultado transformado a la aplicación. Puede crear y ejecutar funciones de Lambda propias y personalizadas, con lo que es posible adaptar la transformación de datos de S3 Object Lambda a casos de uso específicos.

Para empezar a utilizar S3 Object Lambda puede utilizar la consola de administración de S3, el SDK o la API. Obtenga más información en la página de S3 Object Lambda o en la guía del usuario de S3 Object Lambda.

P: ¿Por qué debería utilizar S3 Object Lambda?

Debería utilizar S3 Object Lambda para compartir una única copia de los datos entre muchas aplicaciones, lo que evita la necesidad de crear y operar una infraestructura de procesamiento personalizada o de almacenar copias derivadas de los datos. Por ejemplo, mediante el uso de S3 Object Lambda para procesar solicitudes GET de S3 normales, puede enmascarar datos confidenciales con fines de conformidad, reestructurar datos sin procesar con el fin de que sean compatibles con aplicaciones de machine learning, filtrar datos para restringir el acceso a contenido específico dentro de un objeto de S3 o para abordar una amplia gama de casos de uso adicionales. S3 Object Lambda se puede configurar con tan solo unos clics en la consola de administración de Amazon S3. Lee la guía del usuario para obtener más información.

P: ¿Cómo funciona S3 Object Lambda?

S3 Object Lambda utiliza funciones de Lambda especificadas por usted para procesar la salida de una solicitud GET estándar. Una vez que haya definido una función de Lambda para procesar los datos solicitados, puede asociar esa función a un punto de acceso de S3 Object Lambda. Las solicitudes GET realizadas a través de un punto de acceso de S3 Object Lambda ahora invocarán la función de Lambda especificada. Tras ello, Lambda obtendrá el objeto de S3 solicitado por el cliente y lo procesará. Una vez completado el procesamiento, Lambda transmitirá el objeto procesado al cliente que lo ha llamado. Lea la guía del usuario de S3 Object Lambda para obtener más información.

P: ¿Cómo puedo empezar a utilizar S3 Object Lambda?

Lambda para objetos de S3 se puede configurar en la consola de administración de S3 mediante tres sencillos pasos. En primer lugar, vaya a la pestaña Punto de acceso de Object Lambda en la consola. En segundo lugar, cree un punto de acceso de S3 Object Lambda y proporcione un nombre para este recurso en su configuración, la función de Lambda a invocar que desea que S3 ejecute ante las solicitudes GET y un punto de acceso de S3 de apoyo. En la documentación de AWS hay ejemplos de implementaciones de funciones de Lambda que le ayudarán a probar el servicio. Por último, actualice el SDK y la aplicación para utilizar el nuevo punto de acceso de S3 Object Lambda para recuperar datos de S3 mediante el lenguaje SDK de su elección. S3 Object Lambda comenzará a procesar las solicitudes GET. Lea la guía del usuario de S3 Object Lambda para obtener más información.

P: ¿Qué tipo de operaciones puedo realizar con S3 Object Lambda?

Todas las operaciones admitidas en una función de Lambda son compatibles con S3 Object Lambda. Esto ofrece una amplia gama de opciones disponibles para procesar las solicitudes. Usted proporciona su propia función de Lambda para ejecutar cálculos personalizados con respecto a las solicitudes GET, lo que permite la flexibilidad de procesar los datos de acuerdo con las necesidades de la aplicación. El tiempo de procesamiento de Lambda está limitado a un máximo de 60 segundos. Para obtener más información, consulte la documentación de S3 Object Lambda aquí.

P: ¿Qué tipos de solicitudes de S3 admite S3 Object Lambda?

S3 Object Lambda admite solicitudes GET. Cualquier otra llamada de la API de S3 realizada a un punto de acceso de S3 Object Lambda devolverá la respuesta de la API de S3 estándar. Obtenga más información sobre S3 Object Lambda en la guía del usuario.

P: ¿Qué ocurrirá si se produce un error en una función de S3 Object Lambda?

Si se produce un error en una función de S3 Object Lambda, recibirá una respuesta de solicitud en la que se explica el error. Al igual que con las demás invocaciones de funciones Lambda, AWS también monitorea automáticamente las funciones en su nombre y reporta las métricas mediante Amazon CloudWatch. Para ayudarle a solucionar los errores, Lambda registra todas las solicitudes procesadas por la función y almacena automáticamente los registros generados por el código con Amazon CloudWatch Logs. Para obtener más información sobre el acceso a los registros de CloudWatch para AWS Lambda, consulte la documentación de CloudWatch.

P: ¿S3 Object Lambda afecta el acuerdo de nivel de servicio de disponibilidad de S3 o la durabilidad de S3?

S3 Object Lambda conecta Amazon S3, AWS Lambda y, opcionalmente, otros servicios de AWS que usted elija para entregar objetos relevantes para las aplicaciones que hagan solicitudes. Todos los servicios de AWS utilizados en relación con S3 Object Lambda seguirán rigiéndose por sus respectivos acuerdos de nivel de servicio (SLA). Por ejemplo, si algún servicio de AWS no cumple con su compromiso de servicio, usted podrá recibir un crédito de servicio según se indica en el acuerdo de nivel de servicio correspondiente. La creación de un punto de acceso de S3 Object Lambda no afecta a la durabilidad de los objetos. Sin embargo, S3 Object Lambda invoca la función de AWS Lambda especificada y usted debe asegurarse de que la función de Lambda especificada es la prevista y correcta. Consulte el acuerdo de nivel de servicio más reciente de Amazon S3 aquí.

P: ¿Cuánto cuesta S3 Object Lambda?

Al utilizar S3 Object Lambda, se paga una tarifa por GB por cada gigabyte de datos que se devuelva a través de S3 Object Lambda. También paga por la solicitud GET de S3 y los cargos informáticos de AWS Lambda por el tiempo que la función especificada se ejecuta para procesar los datos solicitados. Para obtener información sobre los precios y un ejemplo, lea la página de precios de S3.

¿Todo listo para comenzar?

Standard Product Icons (Features) Squid Ink
Consulte las características del producto

Obtenga más información sobre las características para la administración de datos, la seguridad, la administración de acceso, el análisis y más.

Más información 
Sign up for a free account
Inscríbase para obtener una cuenta gratuita

Obtenga acceso al instante a la capa gratuita de AWS y comience a experimentar con Amazon S3. 

Inscribirse 
Standard Product Icons (Start Building) Squid Ink
Comience a crear en la consola

Introducción a la creación de soluciones con Amazon S3 en la consola de AWS.

Introducción