Le Big Data peut être défini comme un ensemble de défis en matière de gestion de données qui, en raison de la vitesse, de la variété et du volume croissants des données, ne peuvent être relevés avec des bases de données traditionnelles. Bien que le Big Data possède de nombreuses définitions, la plupart d'entre elles incluent un concept généralement connu sous le nom des « trois V » du Big Data :

Volume : peut varier de quelques téraoctets à plusieurs pétaoctets de données

Variété : comprend des données provenant de différentes sources et se présentant sous divers formats (par ex., pages web, fichiers journaux, interactions avec les réseaux sociaux, ecommerce et transactions en ligne, transactions financières, etc.)

Vitesse : les exigences des entreprises sont de plus en plus strictes entre le moment où les données sont générées et le moment où des informations concrètes sont transmises aux utilisateurs. Par conséquent, les données doivent être collectées, stockées, traitées et analysées dans des délais relativement courts, le processus pouvant aller d'une journée à un traitement en temps réel

Démarrez avec le Big Data maintenant

Essayez AWS gratuitement
Contacter l'équipe commerciale

Consultez plus de didacticiels et ressources


Malgré l'intérêt que suscite le Big Data, de nombreuses organisations ne se rendent pas compte qu'elles sont confrontées à un problème lié à cette technologie ou ne pensent tout simplement pas dans cette optique. En général, une organisation devrait profiter des technologies Big Data lorsque les bases de données et les applications existantes ne peuvent plus s'adapter à l'augmentation soudaine du volume, de la variété et de la vitesse des données.

Si une organisation ne relève pas correctement les défis « Big Data », elle s'expose à une forte augmentation des coûts, ainsi qu'à une baisse de la productivité et de la compétitivité. Par ailleurs, une stratégie efficace en matière de Big Data peut aider les organisations à réduire les coûts et à améliorer leur efficacité opérationnelle en migrant les charges de travail existantes les plus lourdes vers des technologies Big Data, et en déployant de nouvelles applications pour profiter de nouvelles opportunités.


BigData__hadoop

Grâce aux nouveaux outils couvrant l'ensemble du cycle de gestion des données, les technologies Big Data constituent une façon rentable, sur le plan technique comme économique, non seulement de collecter et de stocker des ensembles de données plus volumineux, mais aussi de les analyser pour obtenir de nouvelles informations et des connaissances précieuses. Dans la plupart des cas, le traitement du Big Data implique un flux de données commun, de la collecte de données brutes à l'utilisation d'informations concrètes.

Collecte. La collecte de données brutes (transactions, fichiers journaux, appareils mobiles, etc.) est le premier défi que de nombreuses organisations doivent relever lors du traitement du Big Data. Une plate-forme de Big Data efficace facilite cette étape, en permettant aux développeurs d'acquérir une grande variété de données, structurées ou non, à n'importe quelle vitesse, que ce soit en temps réel ou par lot.

Stockage. Toute plate-forme de Big Data a besoin d'un référentiel sécurisé, évolutif et durable pour stocker les données avant ou même après les tâches de traitement. En fonction de vos besoins spécifiques, vous aurez peut-être aussi besoin de magasins temporaires pour les données en transit.

Traitement et analyse. Lors de cette étape, les données passent d'un état brut à un format consommable, généralement grâce à un processus de tri, d'agrégation et d'association, et même grâce à l'exécution de fonctions plus avancées et d'algorithmes. Les ensembles de données ainsi obtenus sont ensuite stockés en vue d'un traitement ultérieur ou mis à disposition pour être utilisés via des outils d'informatique décisionnelle et de visualisation de données.

Consommation et visualisation. Le Big Data consiste avant tout à tirer des informations précieuses et concrètes de vos données. Dans l'idéal, les données sont mises à la disposition des parties prenantes via des outils d'informatique décisionnelle et de visualisation de données flexibles et en libre-service qui permettent d'explorer rapidement et facilement des ensembles de données. En fonction du type d'analyse, les utilisateurs finaux peuvent également utiliser les données sous la forme de « prédictions » statistiques (dans le cas de l'analyse prédictive) ou de mesures recommandées (dans le cas de l'analyse prescriptive).


L'écosystème de Big Data continue d'évoluer à une vitesse impressionnante. Aujourd'hui, différents styles d'analyse prennent en charge plusieurs fonctions au sein de l'organisation.

BigData__collection-processing

L'analyse descriptive aide les utilisateurs à répondre à cette question : « Que s'est-il passé et pourquoi cela s'est-il passé ? ». Cette analyse s'applique, par exemple, aux environnements de requête et de reporting traditionnels comprenant des fiches de performances et des tableaux de bord.

L'analyse prédictive permet aux utilisateurs d'estimer la probabilité qu'un événement donné se produise dans le future. Elle comprend notamment les systèmes d'alerte précoce, les mesures de détection des fraudes, les applications de maintenance préventive et les prévisions.

L'analyse prescriptive fournit des recommandations (prescriptives) spécifiques à l'utilisateur. Elle répond à la question suivante : « Que faire si l'événement "x" se produit ?

Au départ, les frameworks Big Data tels qu'Hadoop acceptaient uniquement les charges de travail en lot, tandis que les grands ensembles de données étaient traités en masse pendant un créneau défini, généralement mesuré en heures, si ce n'est en jours. Cependant, à mesure que les procédures de travail gagnaient en importance, la « vitesse » du Big Data a favorisé l'évolution de nouveaux frameworks tels qu'Apache Spark, Apache Kafka et Amazon Kinesis pour soutenir le traitement en temps réel des données de diffusion en continu.


Amazon Web Services vous propose un portefeuille complet et entièrement intégré de services de cloud computing pour vous aider à créer, protéger et déployer vos applications de Big Data. Avec AWS, vous n'avez aucun matériel à acheter ni aucune infrastructure à entretenir et à faire évoluer. Vous pouvez donc vous concentrer sur vos ressources pour acquérir de nouvelles informations. Grâce aux nouvelles capacités et fonctionnalités constamment proposées par AWS, vous pourrez toujours profiter des dernières technologies sans engagement ni investissement à long terme.

En savoir plus sur la plate-forme et les outils de Big Data d'AWS »

Disponibilité immédiate

La plupart des technologies de Big Data nécessitent de grands clusters de serveurs, ce qui génère de longs cycles de configuration et de mise en service. Avec AWS, vous pouvez déployer l'infrastructure dont vous avez besoin presque instantanément. Vos équipes peuvent donc être plus productives, il est plus facile d'innover et les projets sont déployés plus rapidement.

Grandes capacités

Les charges de travail de Big Data sont aussi variées que les données qu'elles sont destinées à analyser. Avec une vaste plate-forme, vous pouvez créer pratiquement toutes les applications Big Data et prendre en charge toutes les charges de travail, quels que soient le volume, la vitesse et la variété des données. Avec plus de 50 services et des centaines de fonctionnalités ajoutées chaque année, AWS vous fournit tout ce dont vous avez besoin pour collecter, stocker, traiter, analyser et visualiser le Big Data dans le cloud. Découvrez la plate-forme de Big Data d'AWS.

Fiable et sécurisé

Le Big Data traite des données sensibles. Par conséquent, il est essentiel de protéger vos données et votre infrastructure sans compromettre la flexibilité. AWS met à disposition des installations, réseaux, logiciels et processus métier les capacités nécessaires pour répondre aux exigences les plus strictes. Les environnements sont continuellement examinés pour vérifier leurs certifications (ex. : ISO 27001, FedRAMP, DoD SRG, PCI DSS, etc.). Les programmes d'assurance vous aident à démontrer la conformité à plus de 20 normes, notamment la loi HIPAA, la norme NCSC, etc. Veuillez consulter leCentre de sécurité dans le cloud pour en savoir plus.

Des centaines de partenaires et de solutions

Un vaste écosystème de partenaires peut vous aider à combler vos lacunes en termes de compétences et à prendre en main le Big Data encore plus vite. Consultez le réseau de partenaires AWS pour obtenir de l'aide auprès d'un partenaire consultant ou faites votre choix parmi de nombreux outils et applications dans l'ensemble du stack de gestion de données.


Laissez-nous vous aider à relever vos défis « Big Data ». Laissez-nous nous occuper des tâches fastidieuses. Vous pourrez ainsi consacrer plus de temps et de ressources à la réalisation des objectifs de votre entreprise ou organisation.

En savoir plus sur les solutions de Big Data d'AWS »