Le Blog Amazon Web Services
Découvrez comment leboncoin utilise le Cloud AWS pour traiter ses données
leboncoin est la première plateforme généraliste de petites annonces en France. Plus d’un français sur trois a déjà utilisé son site fréquenté par 25,5 millions de visiteurs uniques par mois.
Chaque jour, 800 000 à 1 million d’annonces sont déposées sur leboncoin.fr qui compte plus de 26 millions d’annonces en stock. Via sa régie publicitaire, une des dix premières en France, leboncoin propose aussi des services pour tous les annonceurs professionnels locaux et nationaux qui communiquent sur son site. Avec 400 employés et un chiffre d’affaires de 180 millions d’euros en 2015, leboncoin fait figure de site phare de l’économie collaborative et de la consommation raisonnée.
Le défi
leboncoin stocke et traite plus de 100 téraoctets de données issues de l’activité sur son site. Pour exploiter ces données, son équipe travaillait par le passé avec des outils traditionnels de Business Intelligence (BI) aux capacités d’analyse limitées. « La BI nous permettait d’analyser l’activité avec les chiffres des visites et des ventes réalisées sur deux semaines tout au plus. Sur ce lapse de temps, les conclusions n’étaient pas représentatives et ne permettaient pas d’anticipation » explique Aissa Belaid, directeur de l’activité data leboncoin. Pour amener l’analyse des données au niveau de la prédiction, l’équipe devait s’assurer d’avoir une infrastructure capable de gérer des calculs massifs.
Or son infrastructure hébergée dans deux data centers en colocation n’offrait pas la souplesse requise pour une approche big data. Au plan du stockage, tout d’abord, compte-tenu d’un volume de données dont la croissance exponentielle reste difficile à évaluer. L’équipe data devait en continu anticiper les besoins en serveurs. « Gérer du stock de serveurs n’est pas notre métier et nous cherchions une solution plus commode, sans aucune limite de stockage » ajoute Aissa Belaid.
Au plan budgétaire ensuite, l’infrastructure traditionnelle impliquant des investissements lourds à chaque nouveau projet. « Par exemple, créer notre plateforme de gestion des données (DMP) impliquait d’ajouter une cinquantaine de serveurs. Avec le rackage, l’installation, la location d’espace, le total s’élevait à près d’un million d’euros, ce qui était rédhibitoire dans notre infrastructure traditionnelle » explique Aissa Belaid. L’infrastructure dédiée aux big data devait évoluer et permettre de lancer de plus nombreux POC avec davantage d’agilité, sans de telles contraintes financières.