- Productos›
- Almacenamiento›
- Amazon S3
Preguntas frecuentes sobre Amazon S3
Temas de la página
- Preguntas frecuentes sobre los aspectos generales de S3
20
- Regiones de AWS
6
- Facturación
10
- S3 Vectors
12
- Amazon S3 e IPv6
4
- Notificaciones de eventos de S3
5
- Amazon S3 Transfer Acceleration
12
- Seguridad
14
- Concesiones de acceso de S3
19
- Puntos de acceso de S3
13
- Durabilidad y protección de datos
23
- Clases de almacenamiento
2
- S3 Intelligent-Tiering
15
- S3 Standard
2
- S3 Express One Zone
16
- S3 Standard – Acceso poco frecuente (S3 Standard-IA)
8
- S3 One Zone-Infrequent Access (S3 One Zone-IA)
6
- Clase de almacenamiento Amazon S3 Glacier Instant Retrieval
8
- Clase de almacenamiento Amazon S3 Glacier Flexible Retrieval
10
- Amazon S3 Glacier Deep Archive
10
- S3 en Outposts
1
- Administración de almacenamiento
46
- Análisis e información de almacenamiento
12
- Consultas in situ
4
- Replicación
32
- Procesamiento de datos
9
- Acceso a los datos
20
- Navegador de almacenamiento para Amazon S3
9
Preguntas frecuentes sobre los aspectos generales de S3
Abrir todoUn bucket de tablas está diseñado específicamente para almacenar tablas con el formato Apache Iceberg. Utilice Tablas de Amazon S3 para crear grupos de tablas y configurar permisos a nivel de tabla en tan solo unos pasos. Los buckets de tablas S3 están optimizados específicamente para las cargas de trabajo de análisis y machine learning. Gracias a la compatibilidad integrada con Apache Iceberg, puede consultar datos tabulares en S3 con motores de consulta populares, como Amazon Athena, Amazon Redshift y Apache Spark. Utilice los buckets de tablas de S3 para almacenar datos tabulares, como las transacciones de compra diarias, los datos de los sensores de secuencias o las impresiones de anuncios, como una tabla Iceberg en Amazon S3 y, a continuación, interactúe con esos datos mediante funciones de análisis.
Un depósito vectorial está diseñado específicamente para almacenar y consultar vectores. Dentro de un bucket vectorial, no se utilizan las API de objetos de S3, sino las API vectoriales dedicadas para escribir datos vectoriales y consultarlos en función del significado semántico y la similitud. Puede controlar el acceso a sus datos vectoriales con los mecanismos de control de acceso existentes en Amazon S3, incluidas las políticas de bucket e IAM. Todas las escrituras en un bucket vectorial son muy consistentes, lo que significa que puede acceder inmediatamente a los vectores agregados más recientemente. A medida que escribe, actualiza y elimina vectores a lo largo del tiempo, los depósitos vectoriales de S3 optimizan automáticamente los datos vectoriales almacenados en ellos para lograr una relación precio-rendimiento óptima, incluso a medida que los conjuntos de datos escalan y evolucionan.
Un bucket es un contenedor de objetos y tablas almacenados en Amazon S3 y puede almacenar cualquier cantidad de objetos en un bucket. Los buckets de uso general son el tipo de bucket de S3 original, y un único bucket de uso general puede contener objetos almacenados en todas las clases de almacenamiento, excepto en S3 Express One Zone. Se recomiendan para la mayoría de los casos de uso y patrones de acceso. Los bucket de directorio de S3 solo permiten almacenar objetos en la clase de almacenamiento S3 Express One Zone, lo que proporciona un procesamiento de datos más rápido dentro de una única zona de disponibilidad. Se recomiendan para casos de uso de baja latencia. Cada bucket de directorio de S3 puede admitir hasta 2 millones de transacciones por segundo (TPS), independientemente de la cantidad de directorios del bucket. Los buckets de tablas de S3 están diseñados específicamente para almacenar datos tabulares en S3, como las transacciones de compra diarias, los datos de sensores de secuencias o las impresiones de anuncios. Al usar un bucket de tablas, sus datos se almacenan como una tabla Iceberg en S3 y, a continuación, puede interactuar con esos datos mediante funciones de análisis, como transacciones a nivel de fila, instantáneas de tablas consultables y más, todas administradas por S3. Además, los buckets de tablas realizan un mantenimiento continuo de las tablas para optimizar automáticamente la eficiencia de las consultas a lo largo del tiempo, incluso a medida que el lago de datos escala y evoluciona. Los cubos vectoriales S3 están diseñados específicamente para almacenar y consultar vectores. Dentro de un depósito vectorial, se utilizan API vectoriales dedicadas para escribir datos vectoriales y consultarlos en función del significado semántico y la similitud. Puede controlar el acceso a sus datos vectoriales mediante los mecanismos de control de acceso existentes en Amazon S3, incluidas las políticas de bucket e IAM. A medida que escribe, actualiza y elimina vectores a lo largo del tiempo, los depósitos vectoriales de S3 optimizan automáticamente los datos vectoriales almacenados en ellos para lograr una relación precio-rendimiento óptima, incluso a medida que los conjuntos de datos escalan y evolucionan.
Regiones de AWS
Abrir todoLa clase de almacenamiento Amazon S3 One Zone-IA replica los datos dentro de una única zona de disponibilidad. Los datos almacenados en S3 One Zone-IA no son resistentes a la pérdida física de una zona de disponibilidad como consecuencia de catástrofes, como terremotos, incendios e inundaciones.
Facturación
Abrir todo2) Día 16 del mes: realiza una operación PUT de 5 GB (5 368 709 120 bytes) en el mismo bucket de datos utilizando la misma clave que la operación PUT original del día 1.
Al analizar los costos de almacenamiento de las operaciones anteriores, debe tener en cuenta que el objeto de 4 GB del día 1 no se elimina del bucket cuando se escribe el objeto de 5 GB el día 15. En su lugar, el objeto de 4 GB se conserva como una versión más antigua, y el objeto de 5 GB pasa a ser la versión más recientemente escrita dentro del objeto que se encuentra en su bucket. Al final del mes: uso total de bytes/hora
[4 294 967 296 bytes x 31 días x (24 horas/día)] + [5 368 709 120 bytes x 16 días x (24 horas/día)] = 5 257 039 970 304 byte-horas. Conversión a GB/mes totales
5.257.039.970.304 bytes-hora x (1 GB/ 1.073.741.824 bytes) x (1 mes/ 744 horas) = 6,581 GB-mes El coste se calcula en función de las tarifas actuales de su región en la página de precios de Amazon S3.
S3 Vectors
Abrir todoPuede empezar a utilizar S3 Vectors en cuatro sencillos pasos, sin tener que configurar ninguna infraestructura fuera de Amazon S3. En primer lugar, cree un bucket vectorial en una región de AWS específica mediante la API CreateVectorBucket o en la consola S3. En segundo lugar, para organizar los datos vectoriales en un depósito vectorial, debe crear un índice vectorial con la API CreateIndex o en la consola de S3. Al crear un índice vectorial, se especifica la métrica de distancia (coseno o euclidiano) y el número de dimensiones que debe tener un vector (hasta 4092). Para obtener resultados más precisos, seleccione la métrica de distancia recomendada por su modelo de incrustación. En tercer lugar, añada datos vectoriales a un índice vectorial con la API PutVectors. Si lo desea, puede adjuntar metadatos como pares de valores clave a cada vector para filtrar las consultas. En cuarto lugar, realiza una consulta de similitud con la API QueryVectors, especificando el vector que se va a buscar y el número de resultados más similares que se van a devolver.
Puede crear un índice vectorial mediante la consola S3 o la API CreateIndex. Durante la creación del índice, debe especificar el bucket vectorial, el índice, la métrica de distancia, las dimensiones y, opcionalmente, una lista de campos de metadatos que desea excluir del filtrado durante las consultas de similitud. Por ejemplo, si desea almacenar datos asociados a vectores únicamente como referencia, puede especificarlos como campos de metadatos no filtrables. Tras la creación, a cada índice se le asigna un nombre de recurso de Amazon (ARN) único. Posteriormente, cuando realizas una solicitud de escritura o consulta, la diriges a un índice vectorial dentro de un bucket vectorial.
Puede agregar vectores a un índice vectorial mediante la API PutVectors. Cada vector consta de una clave que identifica de forma única cada vector en un índice vectorial (por ejemplo, puede generar un UUID mediante programación). Para maximizar el rendimiento de escritura, se recomienda insertar vectores en lotes grandes, hasta alcanzar el tamaño máximo de la solicitud. Además, puede adjuntar metadatos (por ejemplo, año, autor, género y ubicación) como pares de valores clave a cada vector. Al incluir metadatos, de forma predeterminada, todos los campos se pueden usar como filtros en una consulta de similitud, a menos que se especifiquen como metadatos no filtrables en el momento de la creación del índice vectorial. Para generar nuevas incrustaciones vectoriales de sus datos no estructurados, puede utilizar la API InvokeModel de Amazon Bedrock y especificar el ID del modelo de incrustación que desea utilizar.
Puedes usar la API GetVectors para buscar y devolver vectores y metadatos asociados mediante la clave vectorial.
Puede ejecutar una consulta de similitud con la API QueryVectors, especificando el vector de consulta, el número de resultados relevantes que se devolverán (los k vecinos más cercanos) y el ARN del índice. Al generar el vector de consulta, debe usar el mismo modelo de incrustación que se usó para generar los vectores iniciales almacenados en el índice vectorial. Por ejemplo, si utiliza Amazon Titan Text Embeddings v2 en Amazon Bedrock para generar incrustaciones de sus documentos, se recomienda utilizar el mismo modelo para convertir una pregunta en un vector. Además, puede usar filtros de metadatos en una consulta para buscar vectores que coincidan con el filtro. Al ejecutar la consulta de similitud, se devuelven las claves vectoriales de forma predeterminada. Si lo desea, puede incluir la distancia y los metadatos en la respuesta.
S3 Vectors ofrece un almacenamiento vectorial muy duradero y disponible. Los datos escritos en S3 Vectors se almacenan en S3, que está diseñado para ofrecer una durabilidad de datos de 11 a 9 segundos. S3 Vectors está diseñado para ofrecer una disponibilidad del 99,99% con un SLA de disponibilidad del 99,9%.
S3 Vectors ofrece tiempos de latencia de consulta inferiores a un segundo. Utiliza el rendimiento elástico de Amazon S3 para gestionar las búsquedas en millones de vectores y es ideal para cargas de trabajo de consultas poco frecuentes.
Para realizar consultas de similitud para sus incrustaciones vectoriales, varios factores pueden afectar a la recuperación promedio, como el modelo de incrustación, el tamaño del conjunto de datos vectoriales (número de vectores y dimensiones) y la distribución de las consultas. S3 Vectors ofrece una recuperación promedio de más del 90% para la mayoría de los conjuntos de datos. La recuperación promedio mide la calidad de los resultados de la consulta: el 90% significa que la respuesta contiene el 90% de la verdad básica de los vectores más cercanos, que están almacenados en el índice, al vector de la consulta. Sin embargo, dado que el rendimiento real puede variar según su caso de uso específico, le recomendamos que realice sus propias pruebas con datos y consultas representativos para validar que los índices vectoriales de S3 cumplen con sus requisitos de recuperación.
Puedes ver una lista de vectores en un índice vectorial con la API ListVectors, que devuelve hasta 1000 vectores a la vez con un indicador si la respuesta está truncada. La respuesta incluye la fecha de la última modificación, la clave vectorial, los datos vectoriales y los metadatos. También puede usar la API ListVectors para exportar fácilmente datos vectoriales de un índice vectorial específico. La operación ListVectors es muy coherente. Por lo tanto, después de escribir, puede enumerar inmediatamente los vectores con cualquier cambio reflejado.
Con S3 Vectors, paga por el almacenamiento y cualquier solicitud de escritura y lectura aplicable (por ejemplo, insertar vectores y realizar operaciones de consulta en los vectores de un índice vectorial). Para ver los detalles de precios, consulta la página de precios de S3.
Sí. Al crear una base de conocimientos de Bedrock a través de la consola o API de Bedrock, puede configurar un índice vectorial S3 existente como su almacén de vectores para ahorrar en costos de almacenamiento vectorial para los casos de uso de RAG. Si prefiere dejar que Bedrock cree y gestione el índice vectorial por usted, utilice el flujo de trabajo de creación rápida en la consola de Bedrock. Además, puede configurar un nuevo índice vectorial de S3 como almacén de vectores para los flujos de trabajo de RAG en Amazon SageMaker Unified Studio.
Sí. Hay dos maneras de utilizar S3 Vectors con Amazon OpenSearch Service. En primer lugar, los clientes de S3 pueden exportar todos los vectores de un índice vectorial de S3 a OpenSearch Serverless como una nueva colección sin servidor mediante la consola S3 o OpenSearch. Si crea de forma nativa en S3 Vectors, se beneficiará de poder usar OpenSearch Serverless de forma selectiva para cargas de trabajo con necesidades de consultas en tiempo real. En segundo lugar, si es un cliente gestionado de OpenSearch, ahora puede elegir S3 Vectors como su motor de datos vectoriales que se pueden consultar con una latencia inferior a un segundo. A continuación, OpenSearch utilizará automáticamente S3 Vectors como motor subyacente para los vectores y usted podrá actualizar y buscar sus datos vectoriales mediante las API de OpenSearch. Obtendrá los beneficios económicos de S3 Vectors, sin cambios en sus aplicaciones.
Amazon S3 e IPv6
Abrir todoNotificaciones de eventos de S3
Abrir todoAmazon S3 Transfer Acceleration
Abrir todoVisite esta sección de archivos de las preguntas frecuentes sobre Storage Gateway para obtener más información sobre la implementación de AWS.
Seguridad
Abrir todoPara obtener más información sobre la seguridad en AWS, consulte la página de seguridad de AWS y, para obtener información sobre seguridad de S3, visite la página de seguridad de S3 y la guía de prácticas recomendadas de seguridad de S3.
De forma predeterminada, los datos y metadatos del objeto permanecen dentro de la única zona local dedicada en la que se coloca el objeto. Los datos de telemetría y administración de buckets, incluidos los nombres de buckets, las métricas de capacidad, los registros de CloudTrail, las métricas de CloudWatch, las claves administradas por los clientes de AWS Key Management Service (KMS) y las políticas de Identity and Access Management (IAM), se almacenan en la región principal de AWS. De manera opcional, otras características de administración de buckets, como Operaciones por lotes de S3, almacenan los metadatos de administración con el nombre del bucket y el nombre del objeto en la región principal de AWS.
Puede crear un punto de conexión de VPC de interfaz a través de la consola de administración de la VPC de AWS, la interfaz de la línea de comandos de AWS (AWS CLI), el AWS SDK o la API. Para obtener más información, consulte la documentación.
Para obtener más información, consulte la documentación sobre el Analizador de acceso de IAM.
Concesiones de acceso de S3
Abrir todoPuntos de acceso de S3
Abrir todoLos puntos de acceso de Amazon S3 son puntos de enlace que simplifican la administración del acceso a los datos para cualquier aplicación o servicio de AWS que funcione con S3. Los puntos de acceso S3 funcionan con los buckets S3 y Amazon FSx para los sistemas de archivos OpenZFS. Puede controlar y simplificar la forma en que las diferentes aplicaciones o usuarios pueden acceder a los datos mediante la creación de puntos de acceso con nombres y permisos adaptados a cada aplicación o usuario.
Al usar los puntos de acceso de S3 con depósitos de S3, ya no tendrá que administrar una política de depósitos única y compleja con cientos de reglas de permisos diferentes que deben escribirse, leerse, rastrearse y auditarse. En su lugar, puede crear cientos de puntos de acceso por depósito, cada uno de los cuales proporcione una ruta personalizada a un depósito, con un nombre de host y una política de acceso únicos que imponga los permisos y controles de red específicos para cualquier solicitud realizada a través del punto de acceso.
Al usar los puntos de acceso S3 con FSx para OpenZFS, puede acceder a sus datos de FSx mediante la API de S3 como si los datos estuvieran en S3. Con esta capacidad, los datos de sus archivos en FSx para OpenZFS son accesibles para su uso con la amplia gama de servicios y aplicaciones de inteligencia artificial, aprendizaje automático y análisis que funcionan con S3 mientras los datos de sus archivos siguen residiendo en el sistema de archivos FSx para OpenZFS.
Con los puntos de acceso S3, puede acceder a los datos de los archivos en Amazon FSx para OpenZFS mediante las API de S3 y sin mover los datos a S3. Los puntos de acceso S3 conectados a FSx para sistemas de archivos OpenZFS funcionan de manera similar a como funcionan los puntos de acceso S3 conectados a depósitos S3, ya que proporcionan acceso a los datos a través de S3 con acceso controlado por políticas de acceso, mientras que los datos se siguen almacenando en depósitos S3 o FSx para sistemas de archivos OpenZFS. Por ejemplo, una vez que un punto de acceso S3 se conecta a un sistema de archivos FSx para OpenZFS, los clientes pueden usar el punto de acceso con aplicaciones y servicios de inteligencia artificial generativa, aprendizaje automático y análisis que funcionan con S3 para acceder a sus datos de FSx for OpenZFS.
Durabilidad y protección de datos
Abrir todoAmazon S3 utiliza una combinación de sumas de comprobación MD5 de contenido, algoritmos de hash seguros (SHA) y verificaciones de redundancia cíclica (CRC) para comprobar la integridad de los datos. Amazon S3 realiza estas sumas de comprobación en los datos en reposo y repara cualquier disparidad utilizando datos redundantes. Además, los SDK de AWS más recientes calculan automáticamente sumas de comprobación eficaces basadas en CRC para todas las cargas. S3 verifica de forma independiente esa suma de comprobación y solo acepta objetos después de confirmar que la integridad de los datos se mantuvo en tránsito a través de la Internet pública. Si se utiliza una versión del SDK que no proporciona sumas de comprobación calculadas previamente para cargar un objeto, S3 calcula una suma de comprobación basada en CRC de todo el objeto, incluso para las cargas multiparte. Las sumas de comprobación se almacenan en los metadatos de los objetos y, por lo tanto, están disponibles para verificar la integridad de los datos en todo momento. Puede elegir entre cinco algoritmos de suma de comprobación compatibles para comprobar la integridad de los datos de las solicitudes de carga y descarga. Puede elegir un algoritmo de suma de comprobación SHA-1, SHA-256, CRC32, CRC32C o CRC64NVME en función de las necesidades de su aplicación. Puede calcular automáticamente y verificar sumas de comprobación a medida que almacena o recupera datos de S3. También puede acceder a la información de la suma de comprobación en cualquier momento usando las API HeadObject S3, GetObjectAttributes S3 o el informe de inventario de S3. Calcular una suma de comprobación mientras transmite datos a S3 supone un ahorro de tiempo, ya que puede verificar y transmitir sus datos en un único paso en lugar de tener que hacer dos operaciones secuenciales. El uso de sumas de comprobación para la validación de datos es una práctica recomendada para la durabilidad de los datos. Estas capacidades aumentan el rendimiento y reducen el coste de hacerlo.
2) Día 16 del mes: realiza una operación PUT de 5 GB (5 368 709 120 bytes) en el mismo bucket de datos utilizando la misma clave que la operación PUT original del día 1.
Al analizar los costos de almacenamiento de las operaciones anteriores, debe tener en cuenta que el objeto de 4 GB del día 1 no se elimina del bucket cuando se escribe el objeto de 5 GB el día 15. En su lugar, el objeto de 4 GB se conserva como una versión más antigua, y el objeto de 5 GB pasa a ser la versión más recientemente escrita dentro del objeto que se encuentra en su bucket. Al final del mes: uso total de bytes/hora
[4 294 967 296 bytes x 31 días x (24 horas/día)] + [5 368 709 120 bytes x 16 días x (24 horas/día)] = 5 257 039 970 304 byte-horas. Conversión a GB/mes totales
5.257.039.970.304 bytes-hora x (1 GB/ 1.073.741.824 bytes) x (1 mes/ 744 horas) = 6,581 GB-mes El coste se calcula en función de las tarifas actuales de su región en la página de precios de Amazon S3.
Para obtener más información, visite la página de la guía de usuario de bloqueo de objetos de S3.
El bloqueo de objetos de S3 puede configurarse en uno de dos modos. Cuando se implementa en modo Gobernanza, las cuentas de AWS con permisos de IAM específicos pueden eliminar la protección de WORM de una versión de objetos. Si se requiere mayor inmutabilidad para cumplir las normativas, puede utilizar el modo de conformidad. En el modo de conformidad, ningún usuario puede eliminar la protección de WORM, ni siquiera la cuenta raíz.
No, no puede deshabilitar el bloqueo de objetos de S3 ni el control de versiones de S3 para los buckets una vez que esté habilitado el bloqueo de objetos de S3.
Para empezar a replicar objetos con Replicación de S3 desde buckets con el bloqueo de objetos de S3 activado, puede agregar una configuración de replicación en su bucket de origen especificando un bucket de destino en la misma región de AWS o en una diferente y en la misma cuenta de AWS o en una diferente. Puede elegir replicar todos los objetos en el nivel del bucket de S3 o filtrar los objetos en un nivel de prefijo compartido o en un nivel de objeto mediante etiquetas de objetos de S3. También tendrá que especificar un rol de AWS Identity and Access Management (IAM) con los permisos necesarios para realizar la operación de replicación. Puede usar la consola S3, la API de AWS, la CLI de AWS, los SDK de AWS o AWS CloudFormation para habilitar la replicación, y debe tener habilitado el control de versiones de S3 para los buckets de origen y destino. Además, para replicar objetos desde buckets habilitados para el bloqueo de objetos de S3, su bucket de destino también debe tener habilitado el bloqueo de objetos de S3. Para obtener más información, consulte la documentación sobre la configuración de Replicación de S3 y el uso de bloqueo de objetos de S3 con Replicación de S3.
Sí, para replicar objetos de los buckets habilitados para bloqueo de objetos de S3, debe conceder dos permisos nuevos, s3:GetObjectRetention y s3:GetObjectLegalHold, en el bucket de origen del rol de IAM que usa para configurar la replicación. Como alternativa, si el rol de IAM tiene un permiso s3:Get*, cumple el requisito. Para obtener más información, consulte la documentación sobre el uso de bloqueo de objetos de S3 con Replicación de S3.
No, todas las características de Replicacion de S3, como la replicación en la misma región de S3 (S3 SRR), la replicación entre regiones de S3 (S3 CRR), las métricas de replicación de S3 para realizar un seguimiento del progreso, el control del tiempo de replicación de S3 (S3 RTC) y la replicación por lotes de S3, son compatibles al replicar desde buckets de bloqueo de objetos de S3.
Puede utilizar la replicación por lotes de S3 para replicar objetos existentes desde buckets habilitados para bloqueo de objetos de S3. Para obtener más información sobre la replicación de objetos existentes, consulte la documentación sobre la replicación por lotes de S3.
Clases de almacenamiento
Abrir todoAl momento de decidir qué clase de almacenamiento de S3 es la más adecuada para su carga de trabajo, tenga en cuenta los patrones de acceso y el tiempo de retención de los datos para optimizar el costo total más bajo durante la vida útil de sus datos. Muchas cargas de trabajo tienen patrones de acceso cambiantes (contenido generado por el usuario), impredecibles (análisis, lagos de datos) o desconocidos (aplicaciones nuevas), y es por eso que S3 Intelligent-Tiering debe ser la clase de almacenamiento predeterminada para ahorrar automáticamente en costos de almacenamiento. Si conoce los patrones de acceso de los datos, puede seguir esta guía. La clase de almacenamiento S3 Standard es ideal para los datos a los que se accede con frecuencia. Es la mejor opción si accede a sus datos más de una vez al mes. S3 Standard-Infrequent Access es ideal para los datos retenidos al menos durante un mes y a los que se accede cada uno o dos meses. Las clases de almacenamiento de Amazon S3 Glacier se crearon específicamente para el archivado de datos y le ofrecen el mayor rendimiento, la mayor flexibilidad de recuperación y el menor costo de almacenamiento de archivos en la nube. Ahora puede elegir entre tres clases de almacenamiento de archivos optimizadas para diferentes patrones de acceso y duración del almacenamiento. Para los datos de archivado que necesitan un acceso inmediato, como las imágenes médicas, los activos de los medios de comunicación o los datos genómicos, elija la clase de almacenamiento S3 Glacier Instant Retrieval, una clase de almacenamiento de archivos que ofrece el almacenamiento de menor costo con una recuperación de tan solo milisegundos. Para los datos de archivado que no requieren acceso inmediato, pero necesitan la flexibilidad de recuperar grandes conjuntos de datos sin costo alguno, como los casos de uso de copias de seguridad o recuperación de desastres, elija S3 Glacier Flexible Retrieval, con recuperación en minutos o recuperaciones masivas gratuitas de 5 a 12 horas. Para ahorrar aún más en el almacenamiento de archivos de larga duración, como los archivos de conformidad y la preservación de contenido multimedia digital, elija S3 Glacier Deep Archive, el almacenamiento de menor costo en la nube con una recuperación de datos de 12 horas. Todas estas clases de almacenamiento proporcionan resiliencia en múltiples zonas de disponibilidad mediante el almacenamiento de los datos de manera redundante en varios dispositivos y en zonas de disponibilidad de AWS separadas físicamente en una región de AWS.
Para los datos con un requisito de resiliencia menor, puede reducir costos al seleccionar una clase de almacenamiento con una sola zona de disponibilidad, como S3 One Zone-Infrequent Access. Si tiene requisitos de aislamiento o residencia de los datos que una región de AWS existente no puede cumplir, puede usar las clases de almacenamiento de S3 para las zonas locales dedicadas de AWS o los racks S3 en Outposts para almacenar los datos en un perímetro de datos específico.
S3 Intelligent-Tiering
Abrir todoS3 Intelligent-Tiering no tiene un tamaño de objeto mínimo, pero los objetos inferiores a 128 KB no son elegibles para la designación automática de capas. Estos objetos de tamaño inferior se pueden almacenar en S3 Intelligent-Tiering, pero siempre se cobran de acuerdo con las tarifas de nivel de acceso frecuente, sin cargos de monitoreo o automatización. Si desea estandarizar S3 Intelligent-Tiering como clase de almacenamiento predeterminada para los datos recién creados, puede modificar sus aplicaciones al introducir INTELLIGENT-TIERING en el encabezado de solicitud PUT de la API de S3. S3 Intelligent-Tiering está diseñado para una disponibilidad del 99,9 % y una durabilidad del 99,999999999 %, y ofrece automáticamente la misma baja latencia y alto rendimiento que S3 Standard. Puede utilizar AWS Cost Explorer para calcular el ahorro adicional del nivel de acceso instantáneo a los archivos.
Por un pequeño costo de monitoreo y automatización, S3 Intelligent-Tiering monitorea los patrones de acceso y mueve de manera automática los objetos en los niveles de acceso de baja latencia y alto rendimiento, al igual que en dos niveles de acceso a archivos asíncronos opcionales, en donde los clientes obtienen los costos de almacenamiento más bajos en la nube para datos a los que se puede acceder de manera asíncrona.
S3 Intelligent-Tiering no tiene un tamaño de objeto mínimo facturable, pero los objetos inferiores a 128 KB no son elegibles para la designación automática de niveles. Estos objetos pequeños nunca se monitorean y siempre se cobran de acuerdo con las tarifas de capa de acceso frecuente, sin cargos de monitoreo o automatización. Para cada objeto archivado en el nivel de acceso a archivos o en el nivel de acceso a archivo profundo en S3 Intelligent-Tiering, Amazon S3 utiliza 8 KB de almacenamiento para el nombre del objeto y otros metadatos (facturados a las tarifas del almacenamiento S3 Standard) y 32 KB de almacenamiento para el índice y los metadatos relacionados (facturados a las tarifas de almacenamiento de S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive).
S3 Standard
Abrir todoS3 Express One Zone
Abrir todoPuede importar datos de la misma región de AWS a la clase de almacenamiento S3 Express One Zone a través de la consola S3 mediante la opción Importar después de crear un bucket de directorio. La importación simplifica la copia de datos en los buckets del directorio de S3 al permitirle elegir un prefijo o un bucket desde el cual importar los datos sin tener que especificar todos los objetos que se van a copiar de forma individual. Las operaciones por lotes de S3 copian los objetos del prefijo o el bucket de uso general seleccionado y usted puede supervisar el progreso del trabajo de importación y copia a través de la página de detalles del trabajo de operaciones por lotes de S3.
Los buckets de directorio S3 que no tengan actividad de solicitudes durante un periodo de al menos 3 meses pasarán a un estado inactivo. Mientras se encuentra en estado inactivo, un bucket de directorio es temporalmente inaccesible para lecturas y escrituras. Los buckets inactivos retienen todo el almacenamiento, los metadatos del objeto y los metadatos del bucket. Las tarifas de almacenamiento existentes se aplicarán a los buckets inactivos. Cuando se solicita acceso a un bucket inactivo, éste pasa a un estado activo, normalmente en unos minutos. Durante este período de transición, las lecturas y escrituras devolverán un código de error 503 SlowDown.
Supongamos que almacena 10 GB de datos en S3 Express One Zone durante 30 días, lo que supone un total de 1 000 000 de escrituras y 9 000 000 de lecturas, y accede con Athena con un tamaño de solicitud de 10 KB. A continuación, elimina 1 000 000 archivos al cabo de 30 días. Suponiendo que tu depósito se encuentra en la región Este de EE. UU. (Norte de Virginia), los cargos por almacenamiento y solicitud se calculan a continuación: Cargos por almacenamiento
Uso total de bytes por hora = 10 GB por mes
Coste total de almacenamiento = 10 GB al mes x 0,11 USD = 1,10 USD de gastos de solicitud
1 000 000 solicitudes PUT: 1 000 000 solicitudes x 0,00113 USD/1000 = 1,13 USD
9 000 000 solicitudes GET: 9 000 000 solicitudes x 0,00003 USD/1000 = 0,27 USD
1 000 000 solicitudes de eliminación = 1 000 000 solicitudes x 0,00$ (sin cargo) = 0$ Cargo por carga de datos: 10 KB/1 048 576 x 1 000 000$ x 0,0032$ = 0,03$
Cargo por recuperación de datos: 10 KB/1 048 576 x 9 000 000 x 0,0006 USD = 0,05 USD
Cargos totales = 1,10$ + 1,13$ 0,27 + 0,03$ + 0,05$ = 2,58$ Ejemplo 2:
Supongamos que almacena 10 TB de datos para el entrenamiento de machine learning para una carga de trabajo de 8 horas todos los días y, a continuación, los elimina. Durante la carga de trabajo de 8 horas, realiza 5 242 880 escrituras y 10 485 760 lecturas para un tamaño de solicitud de 2 MB. Supongamos que lo hace durante 30 días (un mes). Cargos por almacenamiento
Uso total de bytes por hora = [10 995 116 277 760 bytes x 30 días x (8 horas por día)] = 2 638 827 906 662 400 bytes por hora = 3303,77 GB por mes
Coste total de almacenamiento = 3303,77 GB x 0,11 USD = 363,41 USD Cargos por solicitud
5 242 880 solicitudes PUT por día: 5 242 880 solicitudes x 30 x 0,00113 USD/1000 = 177,73 USD
10 485 760 solicitudes GET por día: 10 485 760 solicitudes x 30 x 0,00003 USD/1000 = 9,44 USD
5.242.880 solicitudes de eliminación por día: 5.242.880 solicitudes x 0,00$ (sin cargo) = 0$ Cargo por carga de datos: 2 MB/1024 x 5.242.880 x 30 x 0,0032$ = 983,04$
Cargo por recuperación de datos: 2 MB/1024 x 10 485 760 x 30 x 0,0006 USD = 368,64 USD
Cargos totales = 363,41 USD + 177,73 USD + 9,44 USD + 983,04 USD + 368,64 USD = 1902,26 USD
S3 Standard – Acceso poco frecuente (S3 Standard-IA)
Abrir todoS3 One Zone-Infrequent Access (S3 One Zone-IA)
Abrir todoClase de almacenamiento Amazon S3 Glacier Instant Retrieval
Abrir todoClase de almacenamiento Amazon S3 Glacier Flexible Retrieval
Abrir todoNota: S3 Glacier Flexible Retrieval también está disponible a través de las API originales directas de Glacier y a través de la consola de administración de Amazon S3 Glacier. Para una experiencia mejorada con acceso a todo el conjunto de características de S3, que incluye la administración del ciclo de vida, la replicación de S3, S3 Storage Lens y más, recomendamos utilizar las API de S3 y S3 Management Console para utilizar las características de S3 Glacier.
Con las unidades de capacidad aprovisionada de S3 Glacier, puede pagar una cuota inicial fija durante un mes determinado para garantizar la disponibilidad de la capacidad de recuperación de las recuperaciones aceleradas de S3 Glacier Flexible Retrieval. Puede adquirir dos unidades de capacidad aprovisionada al mes para aumentar la cantidad de datos que puede recuperar. Cada unidad de capacidad garantiza que se puedan realizar al menos tres recuperaciones aceleradas cada cinco minutos y proporciona un nivel de rendimiento de recuperación de hasta 150 MB/s. Si la carga de trabajo requiere un acceso altamente confiable y predecible a un subconjunto de sus datos en cuestión de minutos, debería adquirir capacidad de recuperación aprovisionada. Si no se dispone de capacidad aprovisionada, es posible que no se acepten las recuperaciones aceleradas durante periodos de alta demanda. Si necesita acceder a recuperaciones aceleradas en cualquier circunstancia, le recomendamos que adquiera capacidad de recuperación aprovisionada.
Puede adquirir capacidad aprovisionada mediante la consola de Amazon S3, la API REST de compra de capacidad aprovisionada, los SDK de AWS o AWS CLI. Una unidad de capacidad aprovisionada tiene duración de un mes a partir de la fecha y hora de compra, que es la fecha de inicio. La unidad vence en la fecha de vencimiento, que es exactamente un mes después de la fecha de inicio, al segundo más cercano. Para obtener más información sobre los precios de la capacidad aprovisionada, consulte los precios de Amazon S3.
1,000032 gigabytes para cada objeto x 100 000 objetos = 100 003,2 gigabytes de almacenamiento de S3 Glacier.
0,000008 gigabytes para cada objeto x 100 000 objetos = 0,8 gigabytes de almacenamiento de S3 Standard.
La tarifa se calcula en función de las tarifas actuales de su región de AWS que figuran en la página de precios de Amazon S3. Para ver más ejemplos de precios de Amazon S3, consulte las preguntas frecuentes sobre facturación de S3 o utilice la calculadora de precios de AWS.
S3 Glacier Flexible Retrieval también requiere 40 KB de metadatos adicionales para cada objeto archivado. Esto incluye 32 KB de metadatos cargados a la tarifa de S3 Glacier Flexible Retrieval, necesarios para identificar y recuperar sus datos. Y 8 KB de datos adicionales cargados a la tarifa S3 Standard, necesarios para mantener el nombre definido por el usuario y los metadatos de los objetos archivados en S3 Glacier Flexible Retrieval. Esto permite que obtenga una lista en tiempo real de todos los objetos de S3 que utilizan la API LIST de S3 o el informe de S3 Inventory. Consulte la página de precios de Amazon S3 para obtener información sobre los precios de Amazon S3 Glacier Flexible Retrieval.
Amazon S3 Glacier Deep Archive
Abrir todoTambién puede utilizar AWS Snowball para migrar datos. Snowball acelera la transferencia de datos, desde terabytes a petabytes, hacia y desde AWS mediante dispositivos de almacenamiento físico que son seguros para el transporte. El uso de Snowball ayuda a eliminar los desafíos que pueden surgir con las transferencias de datos a gran escala, lo que incluye costos de red elevados, tiempos de transferencia prolongados y problemas de seguridad. Por último, puede utilizar AWS Direct Connect para establecer conexiones de red dedicadas desde las instalaciones de su empresa a AWS. En muchos casos, Direct Connect puede reducir los costos de red, mejorar el rendimiento del ancho de banda y proporcionar una experiencia de red más estable que las conexiones basadas en Internet.
S3 en Outposts
Abrir todoAdministración de almacenamiento
Abrir todoPara obtener más información, visite la página de la guía de usuario de etiquetas de objetos de S3.
Debe usar los metadatos de Amazon S3 si quiere usar SQL para consultar la información sobre sus objetos de S3 a fin de identificar rápidamente conjuntos de datos específicos para su IA generativa, análisis y otros casos de uso. S3 Metadata mantiene los metadatos actualizados casi en tiempo real, por lo que puede usar cualquier cliente compatible con Iceberg para ejecutar consultas SQL y buscar objetos según los metadatos del objeto. Por ejemplo, puede usar una consulta SQL para devolver una lista de objetos que coincidan con ciertos filtros, como los objetos agregados en los últimos 30 días en cualquier bucket.
Los metadatos de S3 están diseñados para generar automáticamente metadatos que proporcionan información adicional sobre los objetos que se cargan en un bucket y para hacer que esos metadatos se puedan consultar en una tabla de solo lectura. Estas tablas de metadatos se almacenan en Amazon S3 Tables, que se basan en Apache Iceberg y proporcionan una forma gestionada de almacenar y consultar datos tabulares en S3. S3 Metadata crea y mantiene metadatos a nivel del sistema, como el tamaño del objeto, metadatos personalizados, como etiquetas y metadatos definidos por el usuario, durante la carga de objetos, y metadatos de eventos, como la dirección IP que envió la solicitud. A medida que cambian los datos de su bucket, los metadatos de S3 se actualizan casi en tiempo real para reflejar los cambios más recientes. A continuación, puede consultar las tablas de metadatos mediante varios servicios de análisis de AWS y herramientas de código abierto compatibles con Iceberg, como Amazon Athena, Amazon QuickSight y Apache Spark.
Puede empezar a usar los metadatos de S3 con solo unos clics en la consola de S3. Solo tiene que seleccionar el bucket de S3 de uso general en el que desea habilitar los metadatos de S3 y S3 analizará los datos de su bucket y creará una tabla de Apache Iceberg totalmente gestionada que contenga los metadatos de todos sus objetos. En cuestión de minutos, puede empezar a consultar sus metadatos con cualquier motor de consulta o herramienta compatible con Apache Iceberg.
Las tablas de metadatos de S3 se almacenan en un depósito de tablas administrado por AWS en su cuenta de AWS denominado aws-s3. Las tablas serán de solo lectura y solo S3 tendrá permiso para escribir, actualizar o eliminar metadatos.
S3 Metadata almacena los metadatos en dos tablas administradas de su cuenta: tablas de diario y tablas de inventario en vivo.
La tabla del diario de metadatos de S3 ofrece una vista de los cambios realizados en su bucket. A medida que los objetos se agregan, actualizan y eliminan de sus depósitos de S3 de uso general, los cambios correspondientes se reflejan en las tablas del diario prácticamente en tiempo real. Las tablas de diario son útiles para comprender el comportamiento de las aplicaciones y para identificar cualquier cambio realizado en los conjuntos de datos. Por ejemplo, puede escribir consultas SQL para tablas de diario para buscar objetos de S3 que coincidan con un filtro, como los objetos agregados en los últimos 30 días, los objetos que han agregado los solicitantes activos u objetos que han cambiado los metadatos durante la última semana.
La tabla de inventario en vivo de S3 Metadata contiene una lista completa de todos los objetos de tu bucket. Las tablas de inventario en vivo se actualizan cada hora y contienen toda la información que S3 conoce sobre sus objetos. Las tablas de inventario en vivo son útiles para descubrir o identificar conjuntos de datos en tu bucket, en función de las características generadas en los metadatos de los objetos. Por ejemplo, puede usar tablas de inventario en vivo para identificar conjuntos de datos de entrenamiento para el aprendizaje automático, para usarlos en ejercicios de optimización de costos de almacenamiento o para ayudar a aplicar los controles de gobierno.
Cuando añadas objetos nuevos a tu bucket, verás las entradas en la tabla del diario en cuestión de minutos y las verás en la tabla del inventario activo en la próxima actualización cada hora. Al habilitar los metadatos de S3 en un bucket existente, S3 iniciará automáticamente una operación de relleno para generar metadatos para todos los objetos existentes. Este relleno normalmente finaliza en minutos, pero puede tardar varias horas si los conjuntos de datos existentes contienen millones o miles de millones de objetos de S3.
S3 Inventory ofrece una alternativa programada para la API List sincronizada de Amazon S3. Puede configurar S3 Inventory para proporcionar una salida de archivo CSV, ORC o Parquet de sus objetos y sus metadatos correspondientes de forma diaria o semanal para un bucket o prefijo de S3. Puede simplificar y agilizar las tareas de big data y los flujos de trabajo empresariales con S3 Inventory. Puede usar S3 Inventory para controlar el estado de replicación y cifrado de sus objetos a fin de cumplir requisitos empresariales, de conformidad y normativos. Más información en la guía de usuario de Amazon S3 Inventory.
Las tablas S3 proporcionan almacenamiento S3 diseñado específicamente para almacenar datos estructurados en los formatos Apache Parquet, Avro y ORC. Dentro de un bucket de tablas, puede crear tablas como recursos de primera clase directamente en S3. Estas tablas se pueden proteger con permisos a nivel de tabla definidos en políticas basadas en la identidad o en los recursos, y se puede acceder a ellas mediante aplicaciones o herramientas compatibles con el estándar de Apache Iceberg. Al crear una tabla en el cubo de tablas, los datos subyacentes en S3 se almacenan como archivos Parquet, Avro u ORC. Luego, S3 usa el estándar Apache Iceberg para almacenar los metadatos necesarios para que las aplicaciones puedan consultar esos datos. Las tablas de S3 incluyen una biblioteca de clientes que utilizan los motores de consulta para navegar y actualizar los metadatos de Iceberg de las tablas de su bucket de tablas. Esta biblioteca, junto con las API de S3 actualizadas para las operaciones de tablas, permite que varios clientes lean y escriban datos en sus tablas de forma segura. Con el tiempo, S3 optimiza automáticamente los datos subyacentes de Parquet, Avro u ORC reescribiendo o «compactando» los objetos. La compactación optimiza los datos en S3 para mejorar el rendimiento de las consultas.
Puede esperar un rendimiento de consultas hasta 3 veces más rápido y transacciones por segundo (TPS) hasta 10 veces más altas en comparación con el almacenamiento de tablas de Iceberg en buckets de uso general de Amazon S3. Esto se debe a que los cubos de tablas compactan automáticamente los datos subyacentes de Parquet, Avro u ORC para las tablas a fin de optimizar el rendimiento de las consultas, y el almacenamiento especialmente diseñado admite hasta 10 veces más que el TPS de forma predeterminada.
Los buckets de tablas le permiten aplicar políticas de recursos a todo el bucket o a tablas individuales. Las políticas de buckets de tablas se pueden aplicar mediante las API PutTablePolicy y PutTableBucketPolicy. Las políticas a nivel de tabla le permiten administrar los permisos de las tablas de sus grupos de tablas en función de la tabla lógica a la que están asociadas, sin tener que entender la ubicación física de los archivos individuales de Parquet, Avro u ORC. Además, el bloqueo del acceso público de S3 siempre se aplica a los buckets de tablas.
Los cubos de tabla admiten el formato de tabla Apache Iceberg con datos de Parquet, Avro u ORC.
Si está interesado en obtener más información sobre S3 Batch Operations, vea los vídeos tutoriales y visite la documentación.
También puede especificar una política de ciclo de vida de S3 para eliminar objetos una vez transcurrido un periodo determinado. Puede utilizar esta automatización basada en políticas para reducir de forma rápida y sencilla los costos de almacenamiento, además de ahorrar tiempo. En cada regla puede especificar un prefijo, un periodo de tiempo, una transición a S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive o un vencimiento. Por ejemplo, podría crear una regla que archivara en S3 Glacier Flexible Retrieval todos los objetos con el prefijo común “logs/” 30 días después de su creación, y que les aplicara un vencimiento de 365 días después de su creación.
También puede crear una regla independiente que solo aplique un vencimiento a todos los objetos con el prefijo “backups/” 90 días después de su creación. Las políticas de ciclo de vida de S3 se aplican a objetos de S3 tanto nuevos como existentes, lo que le ayuda a optimizar el almacenamiento y maximizar el ahorro en costos para todos los datos actuales y los datos nuevos que se ubiquen en S3 sin necesidad de realizar una revisión y migración de datos manual y laboriosa.
Dentro de una regla del ciclo de vida, el campo de prefijo identifica los objetos sujetos a la regla. Para aplicar la regla a un objeto individual, especifique el nombre de clave. Para aplicar la regla a un conjunto de objetos, especifique su prefijo común (por ejemplo, “logs/”). Puede especificar una acción de transición para archivar los objetos y una acción de vencimiento para eliminar los objetos. En cuanto al periodo de tiempo, proporcione la fecha de creación (por ejemplo, 31 de enero de 2015) o el número de días desde la fecha de creación (por ejemplo, 30 días) tras el cual desea que los objetos se archiven o eliminen. Puede crear varias reglas para distintos prefijos.
Análisis e información de almacenamiento
Abrir todoEl panel de control de S3 Storage Lens está organizado en torno a cuatro tipos principales de preguntas sobre el almacenamiento. En el filtro Summary (Resumen), se pueden explorar preguntas de nivel superior relacionadas con el uso general del almacenamiento y las tendencias de actividad. Por ejemplo, “¿con qué rapidez aumenta el número total de bytes y el número de solicitudes con el tiempo?” En el filtro Cost Optimization (Optimización de costes), puede explorar preguntas relacionadas con la reducción de costes de almacenamiento. Por ejemplo, “¿puedo ahorrar dinero al retener menos versiones no actuales?”. Con los filtros Data Protection (Protección de datos) y Access Management (Administración de acceso), puede responder preguntas sobre cómo proteger los datos. Por ejemplo, “¿mi almacenamiento está protegido contra la eliminación accidental o intencional?”. Por último, con los filtros Performance (Rendimiento) y Events (Eventos), puede explorar formas de mejorar el rendimiento de los flujos de trabajo. Cada una de estas preguntas representa una primera capa de investigación que probablemente conduzca a un análisis detallado.
Un panel de control predeterminado se configura de forma automática para toda la cuenta y tiene la opción de crear paneles personalizados adicionales en el ámbito de la organización de AWS o regiones o buckets específicos dentro de una cuenta. Puede configurar varios paneles de control personalizados, que pueden ser útiles si necesita alguna separación lógica en su análisis de almacenamiento, como segmentar en buckets para representar varios equipos internos. De forma predeterminada, en el panel de control recibirá las métricas gratuitas de S3 Storage Lens, pero tiene la opción de actualizar el servicio para recibir métricas y recomendaciones avanzadas de S3 Storage Lens por un coste adicional. Las métricas avanzadas de S3 Storage Lens tienen 7 opciones distintas: métricas de actividad, métricas avanzadas de optimización de costos, métricas avanzadas de protección de datos, métricas detalladas de códigos de estado, agregación de prefijos, publicación en CloudWatch y agregación de grupos de Storage Lens. Además, para cada panel puede habilitar la exportación de métricas, con opciones adicionales para especificar el bucket de destino y el tipo de cifrado.
S3 Storage Lens está disponible en dos niveles de métricas. Las métricas gratuitas están habilitadas de forma predeterminada y se encuentran disponibles para todos los clientes de S3 sin coste adicional. Los detalles de precios de recomendaciones y métricas avanzadas de S3 Storage Lens están disponibles en la página de precios de S3. Con las métricas gratuitas de S3 Storage Lens, recibe 28 métricas de uso a nivel de bucket y puede acceder a 14 días de datos históricos en el panel. Con las métricas y recomendaciones avanzadas de S3 Storage Lens recibirá 35 métricas adicionales, agregación a nivel de prefijo, compatibilidad con métricas de CloudWatch, filtrado personalizado de metadatos de objetos con grupos de S3 Storage Lens y podrá acceder a 15 meses de datos históricos en el panel de control.
Consultas in situ
Abrir todoReplicación
Abrir todoPuede encontrar más información sobre la configuración del ciclo de vida y la replicación en la documentación sobre la replicación de S3.
Sí. La replicación de S3 permite a los clientes replicar sus datos en varios buckets de destino, en la misma o en diferentes regiones de AWS. Al realizar la configuración, simplemente especifique el nuevo bucket de destino en la configuración de replicación existente o cree una nueva configuración de replicación con varios buckets de destino. Para cada nuevo destino que especifique, tiene la flexibilidad de elegir el tipo de almacenamiento del bucket de destino, el tipo de cifrado, las métricas y notificaciones de replicación, el control del tiempo de replicación (RTC) y otras propiedades.
P: ¿Puedo utilizar la replicación de S3 para configurar la replicación bidireccional entre buckets de S3?
Visite la página de precios de Amazon S3 para obtener más información sobre los precios de S3 Replication.
En una configuración activa-activa, los puntos de acceso de varias regiones de S3 toman en cuenta factores como la congestión de la red y la ubicación de la aplicación de solicitud para dirigir de forma dinámica las solicitudes a la red de AWS con la menor copia de latencia de los datos. Los puntos de acceso de varias regiones de S3 enrutan sus solicitudes a través de la ubicación de AWS más cercana a su cliente y luego a través de la red global privada de AWS para S3. En cualquiera de las configuraciones, los puntos de acceso de varias regiones de S3 le permiten aprovechar la infraestructura global de AWS mientras conserva una arquitectura de aplicaciones simple.
S3 CRR y los puntos de acceso de varias regiones de S3 son características complementarias que funcionan conjuntamente para replicar datos entre regiones de AWS y a continuación dirigir las solicitudes a la copia replicada con la menor latencia. Los puntos de acceso de varias regiones de S3 lo ayudan a administrar las solicitudes en las regiones de AWS, mientras que CRR le permite mover datos en las regiones de AWS para crear réplicas aisladas. Utilice los puntos de acceso de varias regiones de S3 junto con CRR para crear un conjunto de datos de varias regiones replicado que se pueda dirigir mediante un único punto de conexión global.
Cuando utiliza un punto de acceso para varias regiones de S3 para dirigir solicitudes en AWS, paga un cargo por GB bajo de enrutamiento de datos por cada GB procesado, así como cargos estándares de solicitud, almacenamiento, transferencia de datos y replicación de S3. Si la aplicación se ejecuta fuera de AWS y accede a S3 por Internet, se incrementa el rendimiento de los puntos de acceso para varias regiones de S3 mediante el enrutamiento automático de las solicitudes a través de una ubicación de borde de AWS, mediante la red global privada de AWS, hacia la copia de datos más cercana de acuerdo con la latencia de acceso. Cuando acelera las solicitudes realizadas a través de Internet, paga el cargo de enrutamiento de los datos y un cargo de aceleración de Internet. El precio por la aceleración de Internet de los puntos de acceso de varias regiones de S3 varía en función de si el cliente de origen se encuentra en la misma ubicación o en una diferente de la región de destino de AWS y se suma al precio de transferencia de datos estándar de S3. Para usar los controles de conmutación por error de los puntos de acceso de varias regiones de S3, solo se le cobrarán los costos de la API de S3 para ver el estado actual del control de enrutamiento de cada región y para enviar cualquier cambio de control con el fin de iniciar una conmutación por error. Consulte la página de precios de Amazon S3 y la pestaña de transferencia de datos para obtener más información sobre los precios.
Sí, puede configurar los buckets subyacentes del punto de acceso multirregional de S3 para que sean buckets de pagos por solicitante. Con los pagos por solicitante, el solicitante paga todo el costo asociado al uso del punto de conexión, incluido el costo de las solicitudes y el costo de transferencia de datos asociado tanto al bucket como al punto de acceso multirregión. Lo normal es configurar los buckets como buckets de pago por solicitante si desea compartir datos, pero no incurrir en gastos asociados al acceso de otros a los datos. En general, los propietarios de un bucket pagan por todo el almacenamiento de Amazon S3 asociado a su bucket. Para obtener más información, visite Pago por solicitante de S3.
La consola de S3 proporciona un flujo de trabajo guiado simple para configurar rápidamente todo lo que necesita para ejecutar el almacenamiento multirregional en S3 en solo tres pasos sencillos. Primero, cree un punto de conexión para un punto de acceso multirregional de Amazon S3 y especifique las regiones de AWS entre las que quiere replicar y conmutar por error. Para agregar buckets en varias cuentas de AWS a un nuevo punto de acceso multirregional de S3, ingrese los ID de las cuentas que sean propietarias de los buckets en el momento de la creación. Segundo, para cada región de AWS y bucket de S3 detrás de su punto de conexión del punto de acceso multirregional de S3, especifique si su estado de enrutamiento es activo o pasivo, dónde las regiones de AWS aceptan el tráfico de solicitudes de datos de S3 y si las regiones pasivas no se enrutan hasta que inicie una conmutación por error. Tercero, configure sus reglas de S3 CRR para sincronizar sus datos en S3 entre las regiones o las cuentas. Puede iniciar una conmutación por error en cualquier momento entre las regiones de AWS en cuestión de minutos para cambiar sus solicitudes de datos de S3 y monitorear el cambio de su tráfico de S3 a su nueva región de AWS activa en Amazon CloudWatch. Como alternativa, puede utilizar AWS CloudFormation para automatizar su configuración de almacenamiento multirregional. Todos los componentes necesarios para configurar el almacenamiento multirregional en S3, incluidos los puntos de acceso multirregionales de S3, son compatibles con CloudFormation. Esto le permite automatizar fácilmente un proceso de configuración repetible fuera de la consola de administración de S3.