Skip to content
DE 

SHARE:

Solomon Philip ist Leiter des Bereichs Marktintelligenz bei Shift Technology

Zu Beginn dieses Jahres hat ChatGPT die Welt der künstlichen Intelligenz im Sturm erobert. Plötzlich hatte man das Gefühl, dass jeder mit dieser aufregenden neuen Technologie experimentierte, sie auf Herz und Nieren prüfte und versuchte, herauszufinden, worum es dabei genau ging. In dieser Zeit wurde ChatGPT fast zu einem Synonym für die größere Kategorie der generativen KI und die großen Sprachmodelle (Large Language Models, LLMs), die sie unterstützen. Einige Experten haben die Einführung von ChatGPT sogar als einen der größten technologischen Wendepunkte seit der Entwicklung des Internets bezeichnet. 

Doch trotz des ganzen Hypes darf man nicht vergessen, dass ChatGPT zwar sehr vielversprechend ist und weitreichende Anwendungsmöglichkeiten bietet, aber nur ein Teil der viel größeren generativen KI-Landschaft ist. Außerdem ist der Einsatz von generativer KI, insbesondere im Unternehmensbereich, noch relativ neu. Versicherer, die Generative KI in ihr Technologiepaket aufnehmen wollen, sollten dies nicht im Alleingang tun. Diese Unternehmen werden von der Spezialisierung und dem Fachwissen von KI-Anbietern profitieren, die nicht nur Erfahrung mit der Entwicklung von KI-Produkten in großem Maßstab haben, sondern auch mit LLMs vertraut sind und wissen, wie man das Beste aus ihnen herausholen kann.

Wie kann die Versicherungsbranche also die Vorteile der generativen KI voll ausschöpfen und gleichzeitig die Fallstricke vermeiden?    

Es fängt mit den Daten an

Einer der Gründe, der LLMs so interessant (und leistungsfähig) macht, ist die Tatsache, dass sie bereits auf riesigen Datenmengen aus meist öffentlichen Quellen wie Wikipedia, Online-Zeitschriften, öffentlichen Lehrbüchern, Internetforen wie Reddit und vielen anderen trainiert wurden. Diese Datensätze mit Milliarden von Wörtern geben diesen großen Sprachmodellen die Fähigkeit, viele Aufgaben - mit den richtigen Aufforderungen - sofort auszuführen. Gleichzeitig kann diese Superkraft aber auch eine Schwäche sein, wenn es um die Anwendung generativer KI auf bestimmte Anwendungsfälle in der Wirtschaft geht, insbesondere im Versicherungswesen. 

Da diese LLMs auf generischen, öffentlich zugänglichen Datenquellen trainiert wurden, sind die versicherungsspezifischen und fallbezogenen Daten, die erforderlich sind, um die Nuancen und die Komplexität der Branche, ganz zu schweigen von Ihrem Unternehmen, zu berücksichtigen, einfach nicht vorhanden. Und es ist höchst unwahrscheinlich, dass ein Standard-LLM auf Ihre Versicherungspolicen und Schadensfälle trainiert wurde. LLM-Modelle, die nicht auf versicherungsspezifische Daten geschult sind, benötigen Zugang zu verschiedenen Schadensfällen, Policen und operativen Datensätzen mit gut entwickelten Datenmodellen, um in dieser Umgebung wirklich effektiv zu sein.

Außerdem liegen viele Ihrer firmeninternen Daten in anderen Formaten vor als die, die für das Training dieser Modelle verwendet werden. Wir haben bereits beschrieben, wie LLMs hauptsächlich auf natürlichsprachliche Texte wie Bücher, Enzyklopädien und Internetforen trainiert wurden. Dies steht in einem großen Gegensatz zu den Daten der Versicherer, bei denen es sich häufig um strukturierte Daten aus dem Schadenmanagementsystem oder um halbstrukturierte Daten in Form von Dokumenten wie Berichten, Rechnungen oder Kostenvoranschlägen handelt, um nur einige zu nennen. Diese Quellen enthalten zwar auch viel natürliche Sprache, aber ihre Bedeutung wird durch die Art und Weise, wie sie strukturiert sind, angereichert. Beispielsweise liegen die Informationen oft in 2-dimensionalen Strukturen vor, wie z. B. Tabellen in Rechnungen. Da diese großen Sprachmodelle nur mit eindimensionalen Daten arbeiten, müssen einige Anpassungen vorgenommen werden, um diese Datenquellen erfolgreich zu erfassen. Die Versicherer müssten einen Weg finden, die versicherungsspezifischen Daten in ein natürliches Sprachformat zu bringen, auf dem diese LLMs trainiert wurden. So müssen beispielsweise Tabellen aus Dokumenten in ein CSV-Format konvertiert werden, bevor sie an das Modell übergeben werden. Fortgeschrittene KI-Anbieter, die in der Nutzung von künstlicher Intelligenz geübt sind, werden diese Techniken bereits entwickelt und einsatzbereit haben, da viele davon auch für frühere Arten von Sprachmodellen erforderlich waren. 

Bereitstellung des Kontextes der Versicherungsbranche

Versicherer, die Generative KI einsetzen, müssen sich auch mit den Einschränkungen auseinandersetzen, die mit der Kontextlänge des Modells zusammenhängen. Während LLMs auf Milliarden von Wörtern für ein einzelnes Problem trainiert wurden, verfügen sie in der Regel nur über ein paar tausend Wörter „perfekten Speicher“, nach denen ihre Leistung erheblich sinkt. Da dieser Speicher in der Architektur festgelegt ist, wenn LLMs trainiert werden, kann er nicht einfach nach Belieben des Benutzers erweitert werden. Auch wenn ein paar tausend Wörter beträchtlich erscheinen mögen, müssen wir bedenken, dass ein typisches Versicherungsdokument, das oft in Schriftgröße 8 oder kleiner geschrieben ist, bereits 1-2k Wörter pro Seite enthalten kann. Nehmen wir an, wir müssen auch den gesamten Text aus anderen damit zusammenhängenden Dokumenten (Rechnungen, ärztliche Bescheinigungen, Arztbriefe, Briefe, Korrespondenz usw.) aufnehmen. In diesem Fall füllt sich der Speicher des Modells schnell voll. Erschwerend kommt hinzu, dass die Kontextlänge nicht nur für die Aufforderung, sondern auch für die Antwort verwendet werden muss. In vielen Fällen können sich beide zusammen schnell auf mehrere Tausend Token summieren.

Eine Möglichkeit, diese Einschränkung zu überwinden, besteht darin, intelligenter auszuwählen, was in die Modelleingabe aufgenommen werden soll und was nicht. Dies erfordert ein tiefes Verständnis des Versicherungs- und Schadenbearbeitungsprozesses, um sicherzustellen, dass die richtigen Informationen zur Lösung des Problems einbezogen werden. Sobald die Daten identifiziert sind, müssen sie so verarbeitet werden, dass sie für das Modell leicht verdaulich sind. Wie bei den anfänglichen Bemühungen, den besten Datensatz zu erstellen, erfordert auch die Schaffung des richtigen Versicherungskontextes für das Modell eine Kombination aus Branchen- und KI-Wissen. 

Technologieanbieter, die KI-basierte Systeme entwickeln, haben dieses Problem bereits durch verschiedene interaktive Lösungen gelöst, die beispielsweise in der Lage sind, komplexe juristische Dokumente, medizinische Artefakte, Rechnungen und Finanzinstrumente unterschiedlicher Form und Größe zusammenzufassen. LLMs in Kombination mit Modellen, die große Mengen an Dokumenten indizieren können, können zumindest kurzfristig als Lösung für das Speicherproblem dienen, bis LLMs größere Datenmengen verarbeiten können, ohne Kompromisse bei Leistung und Genauigkeit einzugehen. 

Schlussfolgerung

Generative KI und große Sprachmodelle haben in der Versicherungsbranche großes Potenzial und vielversprechende Aussichten, doch die Vermeidung wichtiger Fallstricke ist entscheidend für den Erfolg der Technologie, wenn sie auf reale Anwendungsfälle angewendet wird. Die Überwindung dieser Einschränkungen erfordert eine Kombination aus Branchenkenntnis und KI-Expertise, die sich mit den Daten- und Kontextproblemen der branchenspezifischen generativen KI befasst und in der Lage ist, spezifische Techniken anzuwenden, um diese Modelle für versicherungsspezifische Anwendungen anzupassen. Mit dem richtigen Ansatz und der Unterstützung von Anbietern, die KI-Modelle mit Versicherungsdatensätzen trainieren können, dem Zugang zu solchen Daten in großem Umfang und mit der richtigen Infrastruktur können Versicherer sich darauf freuen, diese neue technologische Innovation, die uns jetzt zur Verfügung steht, optimal zu nutzen.

Besonderer Dank geht an Arthur Hemmer für seine wertvollen Beiträge zu diesem Beitrag.

Wenn Sie mehr darüber erfahren möchten, wie Shift Ihnen helfen kann, Generative KI einzusetzen, um die besonderen Herausforderungen der Versicherungsbranche zu meistern, kontaktieren Sie uns noch heute.