Aspectos generales

P: ¿Qué es Amazon SageMaker?

Amazon SageMaker es un servicio completamente administrado que permite a los científicos de datos y a los desarrolladores crear, entrenar e implementar modelos de aprendizaje automático de forma rápida y sencilla.

P: ¿Qué puedo hacer con Amazon SageMaker?

Amazon SageMaker les permite a desarrolladores y a los científicos crear modelos de aprendizaje automático que pueden utilizarse en aplicaciones predictivas inteligentes.

P: ¿Cómo puedo comenzar a utilizar Amazon SageMaker?

Para comenzar a utilizar Amazon SageMaker, debe iniciar sesión en la consola de Amazon SageMaker, lanzar una instancia de bloc de notas con un bloc de notas de ejemplo, modificarlo para conectarse con los orígenes de datos, seguir el ejemplo para crear/entrenar/validar modelos, e implementar la producción del modelo resultante con unas pocas especificaciones.

P: ¿En qué regiones se encuentra disponible Amazon SageMaker?

Para ver la lista de las regiones de AWS en las que se admite Amazon SageMaker, consulte la tabla de regiones de AWS, que contiene información sobre la infraestructura global de AWS. Para obtener más información, consulte también Regiones y puntos de enlace en la Referencia general de AWS.

P: ¿Puedo obtener un historial de todas las llamadas a la API de Amazon SageMaker realizadas en mi cuenta para hacer un análisis de seguridad y solucionar problemas operativos? 

Sí. Para recibir un historial de las llamadas al API de Amazon SageMaker realizadas en su cuenta, solo tiene que activar AWS CloudTrail en la consola de administración de AWS. Las siguientes llamadas a la API durante el tiempo de ejecución de Amazon SageMaker *no* se registran ni entregan: InvokeEndpoint.

P: ¿Cuál es la disponibilidad de servicio de Amazon SageMaker?

Amazon SageMaker está diseñado para ofrecer alta disponibilidad. No hay periodos de mantenimiento ni tiempos de inactividad programados. La API de Amazon SageMaker se ejecuta en los centros de datos probados y de alta disponibilidad de Amazon, con la replicación de la pila de servicios configurada en tres instalaciones de cada una de las regiones de AWS, a fin de proporcionar tolerancia a errores si se produce un error en el servidor o una interrupción en la zona de disponibilidad.

P: ¿De qué medidas de seguridad dispone Amazon SageMaker?

Amazon SageMaker garantiza que los elementos de los modelos de aprendizaje automático y otros elementos del sistema estén cifrados tanto en tránsito como en reposo. Las solicitudes a la consola y la API de Amazon SageMaker se efectúan a través de una conexión segura (SSL). Transfiere roles de AWS Identity and Access Management a Amazon SageMaker para proporcionar permisos de acceso a recursos en su nombre para el entrenamiento y la implementación. Puede usar buckets de S3 cifrados para datos y artefactos de modelos, así como también para transferir una clave de KMS a blocs de notas de Amazon SageMaker, trabajos de entrenamiento y puntos de enlace para cifrar el volumen de almacenamiento de aprendizaje automático adjunto.

P: ¿De qué forma Amazon SageMaker protege el código?

Amazon SageMaker almacena el código en volúmenes de almacenamiento de aprendizaje automático, protegidos con grupos de seguridad y, opcionalmente, cifrados en reposo.

P: ¿Cómo se cobra el uso de Amazon SageMaker?

Paga los recursos de procesamiento de datos, almacenamiento y cómputo de aprendizaje automático que use para alojar el bloc de notas, entrenar el modelo, realizar predicciones y registrar los resultados. Amazon SageMaker le permite seleccionar el número y el tipo de instancias utilizado para el bloc de notas alojado, el entrenamiento y el alojamiento del modelo. Solo pagará por lo que consuma y a medida que lo haga; no se requieren pagos mínimos ni compromisos anticipados.

P: ¿Qué sucede si ya tengo mi propio bloc de notas, entrenamiento o entorno de alojamiento?

Amazon SageMaker ofrece un flujo de trabajo integral y completo, pero puede continuar usando las herramientas existentes con Amazon SageMaker. Puede transferir fácilmente los resultados de cada etapa hacia y desde Amazon SageMaker en función de las necesidades de su empresa.

Blocs de notas de Jupyter alojados

P: ¿Qué tipos de blocs de notas se admiten?

Actualmente, se admiten blocs de notas de Jupyter.

P: ¿Cómo pueden conservarse los archivos de los blocs de notas cuando se detiene un espacio de trabajo?

Es posible conservar los archivos de blocs de notas en el volumen de almacenamiento de aprendizaje automático adjunto. El volumen de almacenamiento de aprendizaje automático se desconectará cuando la instancia del bloc de notas se cierre y vuelva a adjuntarse cuando la instancia de bloc de notas se lance nuevamente. Los elementos que se almacenen en la memoria no se conservarán.

P: ¿De qué manera es posible aumentar los recursos disponibles en mi bloc de notas?

Puede modificar la instancia de bloc de notas y seleccionar un perfil mayor mediante la consola de Amazon SageMaker, después de guardar sus archivos y datos en el volumen de almacenamiento de aprendizaje automático adjunto. La instancia de bloc de notas se reiniciará con recursos disponibles mayores, con los mismos archivos de bloc de notas y bibliotecas instaladas.

P: ¿De qué manera puedo entrenar un modelo a partir de un bloc de notas de Amazon SageMaker?

Después de lanzar un bloc de notas de ejemplo, puede personalizar el bloc para adaptarlo a su origen de datos y esquema, y ejecutar las API de AWS para crear un trabajo de entrenamiento. El avance o la finalización del trabajo de entrenamiento se encuentran disponibles mediante la consola de Amazon SageMaker o las API de AWS.

Entrenamiento de modelos

P: ¿Qué es Managed Spot Training?

Managed Spot Training con Amazon SageMaker le permite entrenar sus modelos de aprendizaje automático con instancias de spot de Amazon EC2, y así reducir el costo de entrenamiento de sus modelos en hasta un 90 %.

P: ¿Cómo uso Managed Spot Training?

Usted habilita la opción de Managed Spot Training cuando envía sus trabajos de entrenamiento y especifica cuánto tiempo quiere esperar para la capacidad Spot. Amazon SageMaker usa las instancias de spot de Amazon EC2 para ejecutar su trabajo y administra la capacidad Spot. Tiene completa visibilidad del estado del trabajo de entrenamiento, tanto mientras se está ejecutando como cuando está esperando por más capacidad.

P: ¿Cuándo debo usar Managed Spot Training?

Managed Spot Training es ideal cuando tiene flexibilidad en las ejecuciones de entrenamiento y quiere minimizar el costo de sus trabajos de entrenamiento. Con Managed Spot Training, puede reducir el costo de entrenamiento de sus modelos de aprendizaje automático hasta en un 90 %.

P: ¿Cómo funciona Manage Spot Training?

Managed Spot Training usa las instancias de spot de Amazon EC2 para el entrenamiento, que pueden ser reemplazadas cuando AWS necesite la capacidad. Por lo tanto, los trabajos de Managed Spot Training pueden ejecutarse en incrementos pequeños a medida que haya capacidad disponible. No es necesario que los trabajos de entrenamiento empiecen desde el principio cada vez que haya una interrupción, ya que Amazon SageMaker puede reanudar los trabajos usando el punto de control del último modelo. Los marcos y los algoritmos de visión por computadora integrados en Amazon SageMaker permiten establecer puntos de control periódicos, que usted puede establecer con modelos personalizados.

P: ¿Debo establecer puntos de control periódicamente con Managed Spot Training?

Por lo general, recomendamos establecer puntos de control periódicamente para trabajos de entrenamiento largos. Esto evita que los trabajos de Managed Spot Training se reinicien si la capacidad está agotada. Cuando habilita los puntos de control, Amazon SageMaker reanuda sus trabajos de Managed Spot Training desde el último punto de control. 

P: ¿Cómo se calcula el ahorro en el costo con trabajos de Managed Spot Training?

Una vez que un trabajo de Managed Spot Training se completa, usted puede ver el ahorro en la consola de administración de AWS y también calcular la diferencia porcentual entre la duración del entrenamiento y el tiempo que se cobró.

Independientemente de cuántas veces hayan sido interrumpidos sus trabajos de Managed Spot Training, se cobrarán una sola vez, en base a la cantidad de datos descargados.

P: ¿Qué instancias puedo usar con Managed Spot Training?

Managed Spot Training puede usarse con todas las instancias admitidas en Amazon SageMaker.

P: ¿En qué regiones de AWS está admitido Managed Spot Training?

Managed Spot Training está admitido en todas las regiones de AWS en las que Amazon SageMaker está disponible actualmente.

P: ¿Hay límites en cuanto al tamaño del conjunto de datos que se puede utilizar para el entrenamiento?

No hay límites fijos en cuanto al tamaño del conjunto de datos que se puede usar para entrenar modelos con Amazon SageMaker.

P: ¿Qué orígenes de datos puedo introducir fácilmente en Amazon SageMaker?

Puede especificar la ubicación de Amazon S3 de los datos de entrenamiento como parte de la creación de un trabajo de entrenamiento.

P: ¿Qué algoritmos usa Amazon SageMaker para generar modelos?

Amazon SageMaker incluye algoritmos integrados para regresión lineal, regresión logística, agrupación de clústeres k-means, análisis de componentes principales, equipos de factorización, modelado de temas neuronal, asignación latente dirichlet, árboles con potenciación del gradiente, secuencia a secuencia, previsión de serie temporal, word2vec y clasificación de imágenes. Amazon SageMaker también provee contenedores de Apache MXNet, Tensorflow y PyTorch optimizados. Además, Amazon SageMaker admite algoritmos de entrenamiento personalizados provistos mediante una imagen de Docker que se ajuste a la especificación documentada.

P: ¿Qué es el ajuste de modelo automático?

La mayoría de los algoritmos de aprendizaje automático presenta una variedad de parámetros que controlan la manera en la que funciona el algoritmo subyacente. Dichos parámetros generalmente se denominan hiperparámetros y sus valores afectan la calidad de los modelos entrenados. El ajuste de modelo automático es el proceso por el cual se busca un conjunto de hiperparámetros para un algoritmo que puede producir un modelo óptimo.

P: ¿Qué modelos se pueden ajustar con el ajuste de modelo automático?

Puede ejecutar el ajuste de modelo automático en Amazon SageMaker sobre cualquier algoritmo siempre y cuando sea científicamente viable, incluidos los algoritmos de SageMaker integrados, las redes neuronales profundas o los algoritmos arbitrarios que incorpora a Amazon SageMaker como imágenes de Docker.

P: ¿Puedo usar el ajuste de modelo automático fuera de Amazon SageMaker?

Por ahora no. La mejor experiencia y el mejor rendimiento del ajuste de modelo se obtienen dentro de Amazon SageMaker.

P: ¿Qué es el algoritmo de ajuste subyacente?

Actualmente, nuestro algoritmo para el ajuste de hiperparámetros es una implementación personalizada de optimización bayesiana. Su objetivo es optimizar una métrica de objetivos específica del cliente mediante el proceso de ajuste. Específicamente, verifica la métrica de objetivos de trabajos de entrenamiento finalizados y utiliza el conocimiento para inferir la combinación de hiperparámetros para el próximo trabajo de entrenamiento.

P: ¿Recomendarán hiperparámetros específicos para el ajuste?

No. La manera en la que determinados hiperparámetros afectan al rendimiento del modelo depende de varios factores y es difícil decir de manera definitiva que un hiperparámetro es más importante que otros y que, por lo tanto, debe ajustarse. Para algoritmos integrados dentro de Amazon SageMaker, sí avisamos si un hiperparámetro se puede ajustar o no.

P: ¿Cuánto demora un trabajo de ajuste de hiperparámetros?

La duración de una tarea de ajuste de hiperparámetros depende de varios factores, incluido el tamaño de los datos, el algoritmo subyacente y los valores de los hiperparámetros. Además, los clientes pueden elegir el número de tareas de entrenamiento simultáneas y el número total de tareas de entrenamiento. Todas estas opciones afectan la duración del trabajo de ajuste de los hiperparámetros. 

P: ¿Puedo optimizar varios objetivos simultáneamente, como un modelo, para que sea ágil y preciso?

Por ahora no. Actualmente, debe especificar una única métrica de objetivo que quiera optimizar, o bien modificar el código del algoritmo para emitir una métrica nueva, que se promedia entre dos o más métricas útiles, y optimizar el proceso de ajuste en pos de dicha métrica de objetivo.

P: ¿Cuánto cuesta el ajuste de modelo automático?

No se cobra la tarea de ajuste de hiperparámetros en sí. Se le cobrarán los trabajos de entrenamiento que inicie el trabajo de ajuste de hiperparámetros, en función de los precios de entrenamiento de modelos.

P: ¿Qué es el aprendizaje mediante refuerzo?

Es una técnica de aprendizaje automático que permite que un agente aprenda en un entorno interactivo por el método de prueba y error, utilizando la retroalimentación obtenida de sus propias acciones y experiencias.

P: ¿Puedo entrenar modelos de aprendizaje mediante refuerzo en Amazon SageMaker?

Sí. Aparte de los modelos de aprendizaje supervisado y no supervisado, puede entrenar modelos de aprendizaje mediante refuerzo en Amazon SageMaker.

P: ¿En qué se diferencia el aprendizaje mediante refuerzo del aprendizaje supervisado?

Ambos tipos de aprendizaje usan el mapeo entre la entrada y la salida pero, a diferencia del aprendizaje supervisado en el que la retroalimentación proporcionada al agente es un conjunto de acciones correctas para realizar una tarea, el aprendizaje mediante refuerzo utiliza una retroalimentación retrasada donde las señales de compensación se optimizan para garantizar un objetivo a largo plazo a través de una secuencia de acciones.

P: ¿Cuándo debo utilizar el aprendizaje mediante refuerzo?

Mientras que el objetivo de las técnicas de aprendizaje supervisado es encontrar la respuesta correcta basándose en los patrones de los datos de entrenamiento, el objetivo de las técnicas de aprendizaje no supervisado es encontrar similitudes y diferencias entre los puntos de datos. Por el contrario, el objetivo de las técnicas de aprendizaje mediante refuerzo es aprender cómo obtener el resultado deseado, incluso cuando no esté claro como lograrlo. Como consecuencia, el aprendizaje mediante refuerzo (RL) es más adecuado para habilitar aplicaciones inteligentes en las que un agente puede tomar decisiones autónomas, como robótica, vehículos autónomos, sistemas de acondicionamiento, control industrial, etc.

P: ¿Qué tipo de entornos puedo utilizar para el entrenamiento de modelos de aprendizaje mediante refuerzo?

Amazon SageMaker RL admite distintos entornos para el entrenamiento de modelos de aprendizaje mediante refuerzo. Puede usar servicios de AWS como AWS RoboMaker, entornos de código abierto o personalizados desarrollados mediante interfaces Open AI Gym, así como entornos de simulación comercial, como MATLAB y SimuLink.

P: ¿Tengo que escribir mis propios algoritmos de agente de RL para entrenar modelos de aprendizaje mediante refuerzo?

No. Amazon SageMaker RL incluye conjuntos de herramientas de RL, como Coach y Ray RLLib, que ofrecen implementaciones de algoritmos de agente de RL, como DQN, PPO y A3C, entre otros.

P: ¿Puedo utilizar mis propias implementaciones de algoritmos y bibliotecas de RL, y ejecutarlas en Amazon SageMaker RL?

Sí. Puede traer sus propias implementaciones de algoritmos y bibliotecas de RL en contenedores Docker, y ejecutarlas en Amazon SageMaker RL.

P: ¿Puedo realizar ejecuciones distribuidas con Amazon SageMaker RL?

Sí. Puede incluso seleccionar un clúster heterogéneo, donde el entrenamiento puede ejecutarse en una instancia de GPU y las simulaciones en varias instancias de CPU.

P: ¿Qué es Amazon SageMaker Neo?

Amazon SageMaker Neo es una nueva capacidad que permite que los modelos de aprendizaje automático entrenen una sola vez y se ejecuten en cualquier lugar, tanto en la nube como en el límite. SageMaker Neo optimiza automáticamente los modelos creados con marcos de trabajo conocidos de aprendizaje profundo que se pueden utilizar para la implementación en múltiples plataformas de hardware. Los modelos optimizados se ejecutan hasta dos veces más rápido y consumen menos de una décima parte de los recursos de los modelos de aprendizaje automático típicos.

P: ¿Cómo puedo comenzar a utilizar Amazon SageMaker Neo?

Para comenzar a utilizar Amazon SageMaker Neo, inicie sesión en la consola de Amazon SageMaker, elija un modelo entrenado, siga el ejemplo para compilar modelos e implemente el modelo resultante en la plataforma de hardware de destino.

P: ¿Cuáles son los principales componentes de Amazon SageMaker Neo?

Amazon SageMaker Neo tiene dos componentes principales: un compilador y un tiempo de ejecución. En primer lugar, el compilador de Neo lee los modelos exportados por los distintos marcos de trabajo. A continuación, convierte las operaciones y funciones específicas del marco de trabajo en una representación intermedia con independencia de este. Después, realiza una serie de optimizaciones. Entonces, el compilador genera código binario para las operaciones optimizadas y las escribe en una biblioteca de objetos compartidos. El compilador también guarda los parámetros y la definición del modelo en archivos independientes. Durante la ejecución, el tiempo de ejecución de Neo carga los artefactos generados por el compilador (definición del modelo, parámetros y la biblioteca de objetos compartidos) para ejecutar el modelo.

P: ¿Tengo que utilizar SageMaker si quiero entrenar mi modelo para utilizar Neo en la conversión del modelo?

No. Puede entrenar los modelos en cualquier otro punto y utilizar Neo para optimizarlos para dispositivos compatibles con Greengrass o instancias de SageMaker ML. 

P: ¿Qué modelos admite SageMaker Neo?

En la actualidad, SageMaker Neo admite los modelos de aprendizaje profundo más populares, que impulsan las aplicaciones de visión informática y los modelos de árboles de decisiones más conocidos que se utilizan hoy en día en Amazon SageMaker. Neo optimiza el rendimiento de los modelos AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet y DenseNet entrenados en MXNet y TensorFlow, así como modelos de clasificación y bosque de corte aleatorio entrenados en XGBoost.

P: ¿Qué plataformas admite SageMaker Neo?

En la actualidad, Neo admite instancias de SageMaker ML.C5, ML.C4, ML.M5, ML.M4, ML.P3 y ML.P2; dispositivos AWS DeepLens, Raspberry Pi y Jetson TX1 y TX2; CPU Intel® Atom e Intel® Xeon basadas en dispositivos Greengrass; CPU ARM Cortex-A y GPU Nvidia Maxwell y Pascal.

P: ¿Tengo que utilizar una versión específica de un marco admitido en el hardware de destino?

No. Los desarrolladores puede ejecutar modelos utilizando el contenedor de SageMaker Neo sin dependencias del marco.

P: ¿Cuánto cuesta utilizar SageMaker Neo?

Tan solo se paga por el uso de la instancia de SageMaker ML que ejecuta la inferencia mediante SageMaker Neo.

P: ¿En qué regiones de AWS se encuentra disponible SageMaker Neo?

Amazon SageMaker Neo se encuentra disponible en las regiones de AWS: Norte de Virginia, Oregón, Ohio, Irlanda, Asia Pacífico (Tokio), Asia Pacífico (Singapur), Asia Pacífico (Sídney), Asia Pacífico (Seúl), Asia Pacífico (Mumbai), Asia Pacífico (Hong Kong), Canadá (Central), UE (Fráncfort), UE (Londres), UE (París), UE (Estocolmo), América del Sur (São Paulo) y EE. UU. Oeste (Norte de California).

P: ¿Qué es el seguimiento de modelos de Amazon SageMaker?

El seguimiento de modelos de Amazon SageMaker le permite buscar y evaluar rápidamente las ejecuciones de entrenamiento de modelos más relevantes, a partir de posiblemente cientos y miles de trabajos de entrenamiento de modelos de Amazon SageMaker. La búsqueda de SageMaker está disponible a través de la consola de administración de AWS y de las API del SDK de AWS para Amazon SageMaker.

P: ¿Cómo puedo realizar un seguimiento de mis ejecuciones de entrenamiento de modelos y organizarlas?

Con las capacidades de seguimiento de modelos, puede buscar y organizar sus ejecuciones de entrenamiento de modelos según cualquier propiedad del trabajo de entrenamiento que elija, como su hora de creación, el URI del conjunto de datos de entrenamiento, los valores de los hiperparámetros o tan solo cualquier metadato de dicho trabajo. Una forma flexible de organizar y agrupar los trabajos de entrenamiento relacionados es utilizar etiquetas para marcarlos. Con la búsqueda por etiquetas, podrá encontrar rápidamente las ejecuciones de entrenamiento de modelos asociadas a un equipo científico de datos, un laboratorio de investigación o un proyecto de negocio específico, lo que le ayuda a categorizar y a catalogar dichas ejecuciones de forma descriptiva.

P: ¿Cómo puedo crear una tabla de clasificación de ejecuciones de entrenamiento con las capacidades de seguimiento de modelos?

Los trabajos de entrenamiento de modelos se presentan en la consola de administración de AWS en un formato tabular, similar a una tabla de clasificación. Este formato contiene todos los hiperparámetros y las métricas de los entrenamientos de modelos presentados en columnas que se pueden ordenar. Puede hacer clic en el encabezado de la columna para clasificar la tabla de clasificación según la métrica de rendimiento de objetivos que elija. También puede comparar y clasificar rápidamente las ejecuciones de entrenamiento de modelos en función de las métricas de rendimiento, tales como la pérdida de entrenamiento y la precisión de validación, y de este modo, usar tablas de clasificación para elegir modelos “ganadores” para implementarlos en entornos de producción.

P: ¿Cómo puedo realizar un seguimiento del parentesco de puntos de enlace o de modelos?

Vaya a “Endpoints (Puntos de enlace)” en la consola de administración de AWS para Amazon SageMaker y elija el punto de enlace en la lista de todos los puntos de enlace aplicados. A continuación, desplácese hasta “Endpoint Configuration Settings (Ajustes de la configuración de punto de enlace)” en la página del punto de enlace seleccionado para ver todas las versiones del modelo implementadas en el punto de enlace. Junto a cada versión del modelo, aparece un enlace directo al trabajo de entrenamiento de modelos que creó el modelo en primer lugar.

Implementación de modelos

P: ¿Puedo obtener acceso a la infraestructura en la que se ejecuta Amazon SageMaker?

No. Amazon SageMaker opera la infraestructura informática por usted, lo que le permite ejecutar comprobaciones de estado, aplicar parches de seguridad y realizar otras tareas de mantenimiento de rutina. También puede implementar artefactos de modelos de entrenamiento con un código de inferencia personalizado en su propio entorno de alojamiento.

P: ¿Cómo puedo escalar el tamaño y el desempeño del modelo de Amazon SageMaker una vez que ya se encuentre en producción?

El alojamiento de Amazon SageMaker se ajusta automáticamente al desempeño necesario para su aplicación mediante la característica Application Auto Scaling. Además, puede modificar manualmente el número y el tipo de instancia sin generar tiempos de inactividad mediante la modificación de la configuración del punto de enlace.

P: ¿Cómo puedo monitorizar el entorno de producción de Amazon SageMaker?

Amazon SageMaker emite métricas de desempeño hacia Amazon CloudWatch Metrics para que pueda realizar el seguimiento de métricas, definir alarmas y reaccionar automáticamente ante cambios en el tráfico de producción. Además, Amazon SageMaker escribe registros en Amazon Cloudwatch Logs para permitirle monitorizar y solucionar problemas del entorno de producción.

P: ¿Qué tipos de modelos se pueden alojar con Amazon SageMaker?

Amazon SageMaker puede alojar cualquier modelo que se ajuste a la especificación documentada para imágenes de Docker de inferencia. Incluye modelos creados a partir de códigos de inferencia y artefactos de modelos de Amazon SageMaker.

P: ¿Cuántas solicitudes de API simultáneas en tiempo real admite Amazon SageMaker?

Amazon SageMaker está diseñado para ajustar su escala a un número elevado de transacciones por segundo. El número preciso varía en función del modelo implementado y del número y del tipo de instancia en el que esté implementado el modelo.

P: ¿Qué es la transformación en lotes?

La transformación en lotes le permite ejecutar predicciones en lotes de datos grandes y pequeños. No es necesario desglosar el conjunto de datos en varios fragmentos ni administrar puntos de enlace en tiempo real. Con una API simple, puede solicitar predicciones para un gran número de registros de datos y transformar los datos de manera rápida y sencilla.

Más información sobre los precios de Amazon SageMaker

Visite la página de precios
¿Listo para comenzar?
Inscribirse
¿Tiene más preguntas?
Contacte con nosotros