Présentation
Scene Intelligence with Rosbag sur AWS est conçu spécialement pour aider à simplifier le processus de développement des systèmes avancés d'aide à la conduite (ADAS, Advanced Driver Assistance Systems) et des véhicules autonomes (AV, Autonomous Vehicles). La solution comporte des modules d'extraction de capteurs et de détection d'objets, qui aident les ingénieurs en machine learning et les scientifiques des données à accélérer la recherche de scènes pour l'entraînement des modèles.
Vous pouvez utiliser cette solution pour mettre en scène des exemples de fichiers Rosbag, extraire des données de capteurs Rosbag telles que des métadonnées et des images, appliquer des modèles de détection d'objets et de voies de circulation aux images extraites, ainsi qu'appliquer et stocker la logique métier de détection de scènes.
Avantages
Des pipelines de données évolutifs et flexibles qui ingèrent, transforment, étiquettent et cataloguent de manière fiable des milliards de kilomètres de données réelles ou simulées.
Meilleure accessibilité des équipes internationales pour la recherche, l'identification et l'analyse des données automobiles.
Réduisez le nombre de dépendances et de prérequis grâce à des options de configuration open source.
Détails techniques
Vous pouvez déployer automatiquement cette architecture à l’aide du guide d’implémentation et du modèle AWS CloudFormation qui l’accompagne.
Étape 1
L'AV charge le fichier Rosbag sur Amazon Simple Storage Service (Amazon S3). L'utilisateur final invoque le flux pour lancer le traitement via Amazon Managed Workflows pour Apache Airflow (Amazon MWAA) et un graphe acyclique dirigé (DAG, Directed Acyclic Graph).
Étape 2
AWS Batch extrait le fichier rosbag d'Amazon S3, analyse et extrait les données du capteur et de l'image, et écrit ces données dans un autre compartiment S3.
Étape 3
Amazon SageMaker applique des modèles de détection d'objets et de voies aux données extraites. SageMaker écrit ensuite les données et les étiquettes dans un autre compartiment S3.
Étape 4
Amazon EMR sans serveur (avec une tâche Apache Spark) applique une logique métier aux données et aux étiquettes dans Amazon S3. Cela génère des métadonnées liées à la détection d'objets et à la détection de voies. Amazon EMR sans serveur écrit ensuite les métadonnées dans Amazon DynamoDB et dans un autre compartiment S3.
Étape 5
Une fonction AWS Lambda publie les nouvelles données entrantes de DynamoDB (métadonnées) vers le cluster Amazon OpenSearch Service. L'utilisateur final accède au cluster OpenSearch Service , via un proxy sur Amazon Elastic Compute Cloud (Amazon EC2), pour soumettre des requêtes relatives aux métadonnées.
Rubriques connexes
Ce guide explique comment les clients peuvent traiter et rechercher des données de haute précision basées sur des scénarios grâce au Cadre de données sur la conduite autonome (ADDF).
- Date de publication