Publié le: Dec 19, 2022

Nous sommes ravis d'annoncer la disponibilité générale de Fortuna, une bibliothèque open source pour la quantification des incertitudes des modèles de machine learning. Fortuna propose des méthodes d'étalonnage, telles que la prédiction conforme, qui peuvent être appliquées à n'importe quel réseau neuronal entraîné afin d'obtenir des estimations d'incertitude calibrées. En outre, la bibliothèque prend en charge un certain nombre de méthodes d'inférence bayésienne qui peuvent être appliquées à des réseaux neuronaux profonds écrits en Flax.

Une estimation précise de l'incertitude prédictive est cruciale pour les applications qui impliquent des décisions critiques. L'incertitude nous permet d'évaluer la fiabilité des prévisions des modèles, de nous en remettre à des décideurs humains ou de déterminer si un modèle peut être déployé en toute sécurité. La bibliothèque facilite l'exécution de benchmarks et permettra aux informaticiens de concevoir des solutions d'IA robustes et fiables en tirant parti de techniques avancées de quantification des incertitudes.

Pour en savoir plus sur la bibliothèque, consultez notre article de blog. Pour commencer à utiliser Fortuna, vous pouvez consulter les ressources suivantes :

Référentiel GitHub
Documentation officielle
Exemples d'utilisation de Fortuna