Veröffentlicht am: Dec 19, 2022

Wir freuen uns, die allgemeine Verfügbarkeit von Fortuna, einer Open-Source-Bibliothek zur Quantifizierung von Unsicherheiten von ML-Modellen, bekannt zu geben. Fortuna bietet Kalibrierungsmethoden, wie z. B. konforme Vorhersagen, die auf jedes trainierte neuronale Netzwerk angewendet werden können, um kalibrierte Unsicherheitsschätzungen zu erhalten. Die Bibliothek unterstützt außerdem eine Reihe von Bayesschen Inferenzmethoden, die auf in Flax geschriebene tiefe neuronale Netzwerke angewendet werden können.

Eine genaue Schätzung der prädiktiven Unsicherheit ist für Anwendungen, die kritische Entscheidungen beinhalten, besonders wichtig. Unsicherheit ermöglicht es uns, die Zuverlässigkeit von Modellvorhersagen zu bewerten, menschliche Entscheidungsträger zu beauftragen oder festzustellen, ob ein Modell sicher eingesetzt werden kann. Die Bibliothek erleichtert die Durchführung von Benchmark-Tests und ermöglicht die Entwicklung robuster und zuverlässiger KI-Lösungen anhand fortschrittlicher Techniken zur Quantifizierung von Unsicherheiten.

Um mehr über die Bibliothek zu erfahren, lesen Sie unseren Blogbeitrag. Die folgenden Ressourcen erleichtern den Einstieg in Fortuna:

GitHub-Repository
Offizielle Dokumentation
Anwendungsbeispiele für Fortuna