AWS in Switzerland and Austria (Alps)
Die Zukunft der Schadensabwicklung: Generative KI als Game-Changer für Versicherungsunternehmen
Das traditionelle Schadenmanagement in Versicherungsunternehmen, insbesondere bei Kranken- und Unfallversicherern, ist oft ein zeitaufwändiger und komplexer Prozess. Sachbearbeiter müssen Schadenfälle individuell prüfen, was zu langen Bearbeitungszeiten führt und die Kundenzufriedenheit beeinträchtigen kann. Hinzu kommt dass manuelle Prozesse naturgemäss anfälliger für menschliche Fehler sind. Falsche Einschätzungen oder das Übersehen wichtiger Details können zu fehlerhaften Entscheidungen führen. Menschen können ähnliche Fälle darüber hinaus unterschiedlich bewerten, was zu Ungleichbehandlungen führen kann. Bei einer traditionellen Vorgehensweise werden nicht nur viele personelle Ressourcen gebunden, sondern es ist auch schwierig auf Schadensspitzen, etwa nach Naturkatastrophen oder während Pandemien, zeitgerecht zu reagieren. Daneben kommen Prozesse die bereits heute Dokumentprüfungen technisch unterstützen nicht selten an ihre Grenzen, z.B. bei der Erkennung des Sachverhaltes, der Extrahierung relevanter Informationen(z.B. aus Tabellen oder Grafiken) oder auch der fehlenden Fähigkeit, Text zusammen zu fassen oder Bilder zu beschreiben.
Auf der anderen Seite steht das Potential mittels grosser Sprachmodelle existierende Schadensmanagement Abläufe fundamental zu optimieren. Eine grosse europäische Versicherung antizipiert zum Beispiel, dass durch den Einsatz von Generative AI sich die Produktivität im Schaden-Management um 20% bis 30% verbessern wird (Quelle). Das Ziel dieses Artikels ist es anhand von konkreten Beispielen aufzuzeigen wie in der Praxis funktionieren kann.
Und plötzlich spricht die Schadenakte
Im Anwendungsfall geht es darum nicht nur komplexe Schadendossiers zusammenzufassen, sondern individuelle Fragen zu stellen um somit die Zeit für die Recherche konkreter Informationen durch Sachbearbeiter zu reduzieren. Basis für dieses Beispiel ist der fiktive Schadenfall von Cloudio Spycher, welcher einfachheitshalber als csv-Datei zur Verfügung gestellt wird und über alle relevanten Informationen eines realistischen Schadens verfügt. In der Realität liegen solche Informationen entweder bereits in Datenbanken strukturiert vor oder Unternehmen haben alle Aktenvorgänge als PDF-Dateien digitalisiert und sind anschliessend in der Lage die relevanten Informationen mittels Dokumentanalysediensten wie Amazon Textract zu extrahieren.
Um genauer zu verstehen worum es in diesem fiktiven Schadenfall geht, können interessierte Leserinnen und Leser natürlich 30 Minuten investieren und alle 36 Aktenvorgänge des Schadenfalls lesen, oder sie nutzen mittels Amazon Bedrock ein Large Language Model (LLM) wie Anthropic Claude 3.5 Sonnet um innerhalb weniger Sekunden eine Zusammenfassung zu erhalten. Voraussetzung für die Nutzung von Amazon Bedrock ist ein AWS Konto welches entweder bereits schon im Unternehmen existiert oder sich in wenigen Klicks erstellen lässt. Da LLMs für ein breites Aufgabenfeld konzipiert sind, ist es wichtig dem Sprachmodell möglichst viel Kontext mitzugeben um anschliessend präzise Antwort zu erhalten. Analog zu konkreten Handlungsschritten für Mitarbeitende liefern LLM’s ebenfalls die besten Resultate wenn die Erwartungshaltungen für Aufgaben klar formuliert sind. Für den konkreten Prompt (Anfrage) an das Modell verwenden wir drei Elemente. Wir starten mit der Beschreibung der Aufgabe welche das Modell für uns erledigen soll:
Der nächste Schritt ist die Definition der Rolle, also wie sich das Modell verhallten soll. Wir geben hier fallunabhängig weiteren Kontext zum Verwendungszweck und welche Zielgruppe anschliessend die Antwort des Modells erhalten wird.
Als letzten Punkt geben wir dem Modell den konkreten Versicherungsfall mit welchen es für uns zusammenfassen soll:
Und anbei das Ergebnis:
In der AWS Console sieht dies konkret wie folgt aus:
Vom Service Amazon Bedrock wird die “Chat/text“ Funktionalität verwendet und anschliessend wird als Modell Claude 3.5 Sonnet ausgewählt. In den Einstellungen wurde für dieses Beispiel der Wert für ”Temperature“ auf 0 gesetzt um eine möglichst exakte Antwort zu erhalten und die Kreativität des Modells einzuschränken. Das Ende der letzten Anfrage ist im blau-markierten Teil ersichtlich und die entsprechende Antwort des Modells erscheint drunter im grün-markierten Bereich. Die Werte ”Input“ und ”Output“ geben Informationen zu der Anzahl an verarbeiteten und generierten Tokens und sind ein zentraler Aspekt um die Kosten für Anfrage zu bestimmen. Mittels des Werts ”Latency“ wird die gesamte Zeit dokumentiert welche das Modell benötigt hat um die Antwort zu erstellen. Hilfreich ist hierbei zu verstehen, dass bereits nach wenigen Sekunden begonnen wird die Antwort zu schreiben und nach 12.5 Sekunden dann auch das letzte Wort der Antwort geschrieben wurde. Der letzte farbliche hervorgehobene Bereich ”Choose files“ erlaubt es je nach verwendetem Modell der Anfrage direkt eine Datei mitzugeben und somit z.B. nicht die gesamte Schadenakte als Text bei der Anfrage mitzusenden.
Tipp: Wer es noch einfacher haben möchte, kann direkt PartyRock verweden. PartyRock ist ein unterhaltsamer und intuitiver, praktischer, generativer Spielplatz zum Erstellen von KI-Apps. In nur wenigen Schritten können Nutzer eine Vielzahl von Apps erstellen und mit generativer KI experimentieren. Für den Schadenfall von Cloudio Spycher gibt es hier bereits eine einfache Anwendung die das Experimentieren mit diesem Schadenfall erlaubt. PartyRock erlaubt es verschiedene LLMs wie Anthropic Claude oder die neuen Amazon Nova Modelle auszuprobieren. Für PartyRock wird weder eine Kreditkarte noch ein AWS Konto benötigt.
Ab hier sind die wichtigsten Aspekte erklärt und statt vom Modell eine Zusammenfassung einzufordern, lässt sich die Aufgabenstellung beliebig anpassen. Weitere potentielle Fragen könnten z.B. sein:
- Welche Parteien sind in diesem Schadenfall involviert?
- Wo und wann kam es zum Schaden?
- Welche Zahlungen wurden bereits geleistet?
- Gibt es Parteien welche auf einander warten?
Gerade anhand dieser Fragen lässt sich sehr gut feststellen dass aktuelle Modelle wie Claude 3.5 Sonnet in der Lage sind komplexe Zusammenhänge zu erkennen. Ersetzen wir die Aufgabe
mit der untenstehenden Aufgabe
so erhalten wir folgende Antwort vom Modell:
Nun ändern wir im Schadendossier den letzten Akteneintrag wie folgt:
So ergibt sich eine ganz neue Antwort, in der das Modell erkennt, dass die Parteien nicht mehr aufeinander warten:
Als Zwischenfazit lässt sich festhalten dass heutige Sprachmodelle wie Claude 3.5 Sonnet in der Lage sind komplexe Sachverhalte innerhalb weniger Sekunden zu erkennen und durch akkurate Antworten die Arbeit von Sachbearbeiterinnen und Sachbearbeiter zu unterstützen. Die Kosten pro Antwort belaufen sich auf ca. 0.01 USD bis 0.05 USD und hängen von der Anzahl Wörter (“Tokens”) ab die vom Modell verarbeitet und geschrieben werden. In dieser Lösung antwortet das Modell textbasiert aber es kann auch eine Text-zu-Sprache Lösung wie Amazon Polly verwendet werden. Diese synthetisiert den Text in eine gesprochene Stimme und ermöglicht eine zusätzliche Sprachschnittstelle anzubieten. Die technische Architektur und notwendigen Schritte zum Aufbau solcher Voice Bots mittels Amazon Bedrock und Amazon Polly ist im folgenden AWS Blog beschrieben.
Aber KI kann sich doch täuschen
Generative KI bietet eine Vielzahl von Einsatzmöglichkeiten. Folgende Aspekte sollten aber immer beachtet werden:
- Antwortqualität: Modelle können halluzinieren und falsche oder unvollständige Antworten liefern. Je nach Anwendungsfall kann dies wiederum zu Reputationsverlusten oder weiteren finanziellen Verlusten führen. Aus diesem Grund ist es wichtig dass die Nutzung grosser Sprachmodelle kontrolliert passiert, z.b. durch die oben gezeigte Nutzung eines Prompt Templates und einer Parametrisierung des “Temperature” Wertes. Die Wahrscheinlichkeit falscher Antworten wird mit geringem Aufwand so bereits deutlich verbessert aber gleichzeitig kann nicht ausgeschlossen werden dass das Modell keine falsche Antworten mehr liefert. Daher ist es relevant auch den fachlichen Geschäftsprozess zu analysieren und zu betrachten ob Generative KI hier unterstützend und beschleunigend für bisherige rein manuelle Prozesse eingesetzt wird, oder diese ohne weitere menschliche Prüfung bereits komplett ersetzen soll.
- Datenschutz: Vor der Einführung von LLMs bestand die grösste Herausforderung darin Machine Learning Modelle mit grossen Mengen an Daten zu trainieren. Heute sind LLM’s wie Anthropic Claude in der Lage ohne zusätzliches Training sehr umfassende Antworten zu liefern. Hierfür ist es erforderlich dem Modell den Kontext (Aufgabe, Rolle, Schadenakte) mitzugeben um eine Antwort zu erhalten. Modell-Abfragen über Amazon Bedrock werden nicht zu Trainingszwecken-/Modellverbesserung an die Modell-Produzenten weitergegeben. Daneben steht seit November 2024 Amazon Bedrock mit den Modellen Claude Haiku und Sonnet direkt in der AWS Region Zürich zur Verfügung. Weiterführende Informationen zum Datenschutz rund um die Nutzung von Amazon Bedrock wurden bereits im November in einem entsprechenden Blog-Post verfasst.
- Kostenkontrolle: Bei dem in diesem Artikel vorgestellten On-Demand Modus von Amazon Bedrock bezahlen Kunden nur für das was sie tatsächlich nutzen, ohne zeitliche Verpflichtungen. Die Kosten pro Request ergeben sich aus der Anzahl der verarbeiteten Eingabe-Tokens, dem verwendeten LLM und der Anzahl generierter Ausgabe-Tokens. AWS bietet eine Reihe von Verwaltungstools, mit denen Kunden die Kosten ihrer Anwendungen überwachen können. Beispielsweise legen Kunden mit AWS Budgets benutzerdefinierte Budgets fest, und erhalten Benachrichtigungen falls sich abzeichnet, dass diese Budgets überschritten würden.
Und jetzt?
Ziel des Artikels war es anhand eines konkreten Beispiels aufzuzeigen was Generative KI bereits heute im Schadenmanagement bewirken kann. Es ist keine Frage mehr ob oder wann Generative KI im Schadenmanagement Einzug erhält, sondern viel mehr wie dies konkret passiert. Ein wichtiger Bestandteil ist hierbei die rasante Entwicklung grosser Sprachmodelle von den fachlichen Anwendungsfällen zu entkoppeln. Amazon Bedrock liefert genau diese Flexibilität und ermöglicht es unseren Kunden einfach, auf neuste Sprachmodelle zu wechseln, und somit vom technologischen Fortschritt zu profitieren. Neben der hier gezeigten Möglichkeit direkt LLMs zu nutzen, arbeiten daneben die führenden Anbieter von Software-Lösungen im Versicherungsbereich ebenfalls daran ihre Produkte um entsprechende Generative AI Fähigkeiten anzureichern.
Falls dein Interesse geweckt wurde dies selber einmal auszuprobieren, oder deinen konkreten Fall zu besprechen, dann melde dich bei uns. Wir haben daneben ein breites Netzwerk an Partner in der Schweiz die Kunden bei der Implementierung ihrer Generative KI Anwendungsfälle unterstützen und über unser Partner-Portal kontaktiert werden können.