Auch Versicherer können von zeitgemäßen Lakehouse-Architekturen profitieren.arthitecture | shutterstock.com Angesichts zunehmender Drittanbieter-Integrationen und -Partnerschaften sind Versicherungsunternehmen und Finanzdienstleister mit einer wachsenden Datenflut konfrontiert. Leider verlassen sich viele dieser Firmen jedoch nach wie vor auf Legacy-Technologien wie On-Premises-Warehouses. Umgebungen wie diese bestehen oft aus mehreren, voneinander isolierten Systemen, die jeweils unterschiedliche Funktionalitäten verwalten (Vertragsmanagement, Schadenbearbeitung, Rechnungsstellung, etc.) – und exponentiell wachsende Datenmengen generieren. Das hat Folgen: Schon Legacy-Systeme zu warten, kann einen erheblichen Teil des IT-Budgets verschlingen (manche Analysten schätzen bis zu 70 Prozent). Von den dafür nötigen Ressourcen ganz zu schweigen, die auch in Innovations- und Transformationsinitiativen investiert werden könnten. Meiner Meinung nach sind die grundlegenden Designprinzipien solcher Systeme (isoliert, batch-orientiert, schemabestimmt und oft proprietär) nicht mit den Anforderungen einer agilen, datenzentrierten und KI-gestützten Versicherungsbranche vereinbar. Diese Diskrepanz führt zu anhaltenden Reibungsverlusten, die: die betriebliche Effizienz senken, die Kosten in die Höhe treiben, die Sicherheit beeinträchtigen und die Innovationsfähigkeit behindern. Die bessere Lösung: eine Data-Lakehouse-Architektur. Insbesondere in der Versicherungsbranche, in der Daten der Schlüssel zu Innovation und operativer Effizienz sind, ist dieser transformative Ansatz unerlässlich, um in Zukunft wettbewerbsfähig bleiben zu können. Der (Delta-)Lakehouse-Ansatz Es empfiehlt sich, eine Lakehouse-Architektur in einem dreistufigen Ansatz zu implementieren. Dabei erfordert jede Phase einen besonderen Fokus: Sid Dixit Im Folgenden betrachten wir die drei Phasen im Detail. 1. Datenaufnahme Datenquellen identifizieren: Listen Sie zunächst sämtliche Datenquellen auf. Dazu gehören sowohl ältere Systeme (etwa für die Schadenbearbeitung und Abrechnung) als auch neuere Datenströme (beispielsweise Telemetriedaten oder Informationen von IoT-Devices und externen APIs). Daten zusammenführen: Sobald Sie wissen, wo Ihre Daten auflaufen, führen Sie sie in einem zentralen Repository zusammen. Die einheitliche Ansicht erleichtert es, auf die Daten zuzugreifen und sie zu managen. 2. Transformation (mit ELT und Medallion Architecture) Rohdaten beibehalten („Bronze Layer“): Speichern Sie Ihre Daten genau so, wie Sie sie erhalten haben. Ein „Raw-Backup“ ist wichtig, falls Sie den ursprünglichen Input nachvollziehen müssen. Rohdaten können mit verschiedenen Methoden gestreamt werden, entweder im Batch-Modus oder über einen Message Broker wie Kafka. Plattformen wie Databricks bieten zudem integrierte Tools wie etwa Autoloader, um den Datenerfassungsprozess möglichst nahtlos zu gestalten. Bereinigen und standardisieren („Silver Layer“): Im nächsten Schritt gilt es, die Rohdaten zu organisieren und zu bereinigen. Dabei werden diese in ein einheitliches Format umgewandelt, sodass sie jederzeit für Analysen bereit sind. Auf dieser Ebene können ACID-Transaktionen durchgesetzt werden. Insights gewinnen („Gold Layer“): Verfeinern und aggregieren Sie die bereinigten Daten zu Erkenntnissen, die wichtige Versicherungsfunktionen wie Underwriting, Risikoanalyse und regulatorisches Reporting direkt unterstützen. 3. Data Governance Datenqualität sicherstellen: Setzen Sie strenge Regeln (Schemata) durch, um zu gewährleisten, dass alle eingehenden Daten dem erwarteten Format entsprechen. Das minimiert Fehler und sorgt für zuverlässige Daten. Zuverlässigkeit gewährleisten: Nutzen Sie Mechanismen wie ACID-Transaktionen, um sicherzustellen, dass jede Aktualisierung der Daten entweder vollständig abgeschlossen oder im Fall eines Fehlers zuverlässig rückgängig gemacht wird. Mit Funktionen wie „Time Travel“ (Delta Lakehouse) ist es außerdem möglich, historische Daten für Audits oder Compliance-Zwecke zu überprüfen. Datenverarbeitung optimieren: Bauen Sie ein System auf, das sowohl Echtzeit-Aktualisierungen als auch Batch-Verarbeitung unterstützt und so einen reibungslosen, agilen Betrieb bei Vertragsaktualisierungen, Schadensfällen und Analysen gewährleistet. Sid Dixit ist Principal Architect bei CopperPoint Insurance Companies und Kontributor des Forbes Technology Council.Sid Dixit KI-Enabler für die Versicherungsbranche Daten zu zentralisieren und eine Lakehouse-Architektur zu verankern, ist dem Training und der Performanz von KI-Modellen extrem zuträglich und sorgt zudem für präzisere Insights und optimierte Predictive-Fähigkeiten. Mit Blick auf die Implementierung von Enterprise-KI-Plattformen ist ein weiterer wichtiger Aspekt zu berücksichtigen: Moderne Large Language Models (LLMs) erfordern häufig Datenverarbeitungsfähigkeiten in Echtzeit. Während ML-Modelle auf einen Use Case fokussieren, ist Generative AI (GenAI) in der Lage, mehrere Anwendungsfälle zu bearbeiten. Eine (Delta-)Lakehouse-Lösung kann diese vielfältigen Datenanforderungen effektiv managen und bietet eine einheitliche Plattform für GenAI-Initiativen im Unternehmen. Sie ist zudem in der Lage, grundlegende Herausforderungen in Bezug auf Datenqualität, -versionierung und -integration zu stemmen und erleichtert es, performante GenAI-Modelle zu entwickeln und bereitzustellen. Indem er Data Engineering, Datenwissenschaft und Business-Intelligence-Workflows zusammenführt, steht der Lakehouse-Ansatz in Kontrast zu bisherigen Ansätzen, bei denen Daten umständlich zwischen unterschiedlichen Systemen verschoben werden mussten. Mit einem Data-, beziehungsweise Delta Lakehouse entsteht hingegen ein synergetisches Ökosystem, das den Weg von der Rohdatenerfassung bis hin zur KI-Modellimplementierung erheblich beschleunigt und dabei greifbaren Geschäftswert generiert. Zum Beispiel in Form von: reduzierten Verlusten durch Betrug, schnellerer Schadensregulierung, genauerer Preisgestaltung und optimierten Kundenbeziehungen. Versicherungsunternehmen, die langfristiges Wachstum und operative Exzellenz anstreben, sollten sich von starren Legacy-Systemen verabschieden. Der Umstieg auf eine widerstandsfähige Lakehouse-Architektur beinhaltet zwar eine radikale Neugestaltung der Dateninfrastruktur – das lohnt sich aber auf lange Sicht. Denn so können auch Versicherer das Potenzial von KI in Zukunft voll ausschöpfen, Innovationen schneller vorantreiben, Risiken besser kontrollieren und ihren Kunden einen optimierten Service bieten. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
So sprengen Versicherer ihre Legacy-Ketten
Auch Versicherer können von zeitgemäßen Lakehouse-Architekturen profitieren.arthitecture | shutterstock.com Angesichts zunehmender Drittanbieter-Integrationen und -Partnerschaften sind Versicherungsunternehmen und Finanzdienstleister mit einer wachsenden Datenflut konfrontiert. Leider verlassen sich viele dieser Firmen jedoch nach wie vor auf Legacy-Technologien wie On-Premises-Warehouses. Umgebungen wie diese bestehen oft aus mehreren, voneinander isolierten Systemen, die jeweils unterschiedliche Funktionalitäten verwalten (Vertragsmanagement, Schadenbearbeitung, Rechnungsstellung, etc.) – und exponentiell wachsende Datenmengen generieren. Das hat Folgen: Schon Legacy-Systeme zu warten, kann einen erheblichen Teil des IT-Budgets verschlingen (manche Analysten schätzen bis zu 70 Prozent). Von den dafür nötigen Ressourcen ganz zu schweigen, die auch in Innovations- und Transformationsinitiativen investiert werden könnten. Meiner Meinung nach sind die grundlegenden Designprinzipien solcher Systeme (isoliert, batch-orientiert, schemabestimmt und oft proprietär) nicht mit den Anforderungen einer agilen, datenzentrierten und KI-gestützten Versicherungsbranche vereinbar. Diese Diskrepanz führt zu anhaltenden Reibungsverlusten, die: die betriebliche Effizienz senken, die Kosten in die Höhe treiben, die Sicherheit beeinträchtigen und die Innovationsfähigkeit behindern. Die bessere Lösung: eine Data-Lakehouse-Architektur. Insbesondere in der Versicherungsbranche, in der Daten der Schlüssel zu Innovation und operativer Effizienz sind, ist dieser transformative Ansatz unerlässlich, um in Zukunft wettbewerbsfähig bleiben zu können. Der (Delta-)Lakehouse-Ansatz Es empfiehlt sich, eine Lakehouse-Architektur in einem dreistufigen Ansatz zu implementieren. Dabei erfordert jede Phase einen besonderen Fokus: Sid Dixit Im Folgenden betrachten wir die drei Phasen im Detail. 1. Datenaufnahme Datenquellen identifizieren: Listen Sie zunächst sämtliche Datenquellen auf. Dazu gehören sowohl ältere Systeme (etwa für die Schadenbearbeitung und Abrechnung) als auch neuere Datenströme (beispielsweise Telemetriedaten oder Informationen von IoT-Devices und externen APIs). Daten zusammenführen: Sobald Sie wissen, wo Ihre Daten auflaufen, führen Sie sie in einem zentralen Repository zusammen. Die einheitliche Ansicht erleichtert es, auf die Daten zuzugreifen und sie zu managen. 2. Transformation (mit ELT und Medallion Architecture) Rohdaten beibehalten („Bronze Layer“): Speichern Sie Ihre Daten genau so, wie Sie sie erhalten haben. Ein „Raw-Backup“ ist wichtig, falls Sie den ursprünglichen Input nachvollziehen müssen. Rohdaten können mit verschiedenen Methoden gestreamt werden, entweder im Batch-Modus oder über einen Message Broker wie Kafka. Plattformen wie Databricks bieten zudem integrierte Tools wie etwa Autoloader, um den Datenerfassungsprozess möglichst nahtlos zu gestalten. Bereinigen und standardisieren („Silver Layer“): Im nächsten Schritt gilt es, die Rohdaten zu organisieren und zu bereinigen. Dabei werden diese in ein einheitliches Format umgewandelt, sodass sie jederzeit für Analysen bereit sind. Auf dieser Ebene können ACID-Transaktionen durchgesetzt werden. Insights gewinnen („Gold Layer“): Verfeinern und aggregieren Sie die bereinigten Daten zu Erkenntnissen, die wichtige Versicherungsfunktionen wie Underwriting, Risikoanalyse und regulatorisches Reporting direkt unterstützen. 3. Data Governance Datenqualität sicherstellen: Setzen Sie strenge Regeln (Schemata) durch, um zu gewährleisten, dass alle eingehenden Daten dem erwarteten Format entsprechen. Das minimiert Fehler und sorgt für zuverlässige Daten. Zuverlässigkeit gewährleisten: Nutzen Sie Mechanismen wie ACID-Transaktionen, um sicherzustellen, dass jede Aktualisierung der Daten entweder vollständig abgeschlossen oder im Fall eines Fehlers zuverlässig rückgängig gemacht wird. Mit Funktionen wie „Time Travel“ (Delta Lakehouse) ist es außerdem möglich, historische Daten für Audits oder Compliance-Zwecke zu überprüfen. Datenverarbeitung optimieren: Bauen Sie ein System auf, das sowohl Echtzeit-Aktualisierungen als auch Batch-Verarbeitung unterstützt und so einen reibungslosen, agilen Betrieb bei Vertragsaktualisierungen, Schadensfällen und Analysen gewährleistet. Sid Dixit ist Principal Architect bei CopperPoint Insurance Companies und Kontributor des Forbes Technology Council.Sid Dixit KI-Enabler für die Versicherungsbranche Daten zu zentralisieren und eine Lakehouse-Architektur zu verankern, ist dem Training und der Performanz von KI-Modellen extrem zuträglich und sorgt zudem für präzisere Insights und optimierte Predictive-Fähigkeiten. Mit Blick auf die Implementierung von Enterprise-KI-Plattformen ist ein weiterer wichtiger Aspekt zu berücksichtigen: Moderne Large Language Models (LLMs) erfordern häufig Datenverarbeitungsfähigkeiten in Echtzeit. Während ML-Modelle auf einen Use Case fokussieren, ist Generative AI (GenAI) in der Lage, mehrere Anwendungsfälle zu bearbeiten. Eine (Delta-)Lakehouse-Lösung kann diese vielfältigen Datenanforderungen effektiv managen und bietet eine einheitliche Plattform für GenAI-Initiativen im Unternehmen. Sie ist zudem in der Lage, grundlegende Herausforderungen in Bezug auf Datenqualität, -versionierung und -integration zu stemmen und erleichtert es, performante GenAI-Modelle zu entwickeln und bereitzustellen. Indem er Data Engineering, Datenwissenschaft und Business-Intelligence-Workflows zusammenführt, steht der Lakehouse-Ansatz in Kontrast zu bisherigen Ansätzen, bei denen Daten umständlich zwischen unterschiedlichen Systemen verschoben werden mussten. Mit einem Data-, beziehungsweise Delta Lakehouse entsteht hingegen ein synergetisches Ökosystem, das den Weg von der Rohdatenerfassung bis hin zur KI-Modellimplementierung erheblich beschleunigt und dabei greifbaren Geschäftswert generiert. Zum Beispiel in Form von: reduzierten Verlusten durch Betrug, schnellerer Schadensregulierung, genauerer Preisgestaltung und optimierten Kundenbeziehungen. Versicherungsunternehmen, die langfristiges Wachstum und operative Exzellenz anstreben, sollten sich von starren Legacy-Systemen verabschieden. Der Umstieg auf eine widerstandsfähige Lakehouse-Architektur beinhaltet zwar eine radikale Neugestaltung der Dateninfrastruktur – das lohnt sich aber auf lange Sicht. Denn so können auch Versicherer das Potenzial von KI in Zukunft voll ausschöpfen, Innovationen schneller vorantreiben, Risiken besser kontrollieren und ihren Kunden einen optimierten Service bieten. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
So sprengen Versicherer ihre Legacy-Ketten Auch Versicherer können von zeitgemäßen Lakehouse-Architekturen profitieren.arthitecture | shutterstock.com Angesichts zunehmender Drittanbieter-Integrationen und -Partnerschaften sind Versicherungsunternehmen und Finanzdienstleister mit einer wachsenden Datenflut konfrontiert. Leider verlassen sich viele dieser Firmen jedoch nach wie vor auf Legacy-Technologien wie On-Premises-Warehouses. Umgebungen wie diese bestehen oft aus mehreren, voneinander isolierten Systemen, die jeweils unterschiedliche Funktionalitäten verwalten (Vertragsmanagement, Schadenbearbeitung, Rechnungsstellung, etc.) – und exponentiell wachsende Datenmengen generieren. Das hat Folgen: Schon Legacy-Systeme zu warten, kann einen erheblichen Teil des IT-Budgets verschlingen (manche Analysten schätzen bis zu 70 Prozent). Von den dafür nötigen Ressourcen ganz zu schweigen, die auch in Innovations- und Transformationsinitiativen investiert werden könnten. Meiner Meinung nach sind die grundlegenden Designprinzipien solcher Systeme (isoliert, batch-orientiert, schemabestimmt und oft proprietär) nicht mit den Anforderungen einer agilen, datenzentrierten und KI-gestützten Versicherungsbranche vereinbar. Diese Diskrepanz führt zu anhaltenden Reibungsverlusten, die: die betriebliche Effizienz senken, die Kosten in die Höhe treiben, die Sicherheit beeinträchtigen und die Innovationsfähigkeit behindern. Die bessere Lösung: eine Data-Lakehouse-Architektur. Insbesondere in der Versicherungsbranche, in der Daten der Schlüssel zu Innovation und operativer Effizienz sind, ist dieser transformative Ansatz unerlässlich, um in Zukunft wettbewerbsfähig bleiben zu können. Der (Delta-)Lakehouse-Ansatz Es empfiehlt sich, eine Lakehouse-Architektur in einem dreistufigen Ansatz zu implementieren. Dabei erfordert jede Phase einen besonderen Fokus: Sid Dixit Im Folgenden betrachten wir die drei Phasen im Detail. 1. Datenaufnahme Datenquellen identifizieren: Listen Sie zunächst sämtliche Datenquellen auf. Dazu gehören sowohl ältere Systeme (etwa für die Schadenbearbeitung und Abrechnung) als auch neuere Datenströme (beispielsweise Telemetriedaten oder Informationen von IoT-Devices und externen APIs). Daten zusammenführen: Sobald Sie wissen, wo Ihre Daten auflaufen, führen Sie sie in einem zentralen Repository zusammen. Die einheitliche Ansicht erleichtert es, auf die Daten zuzugreifen und sie zu managen. 2. Transformation (mit ELT und Medallion Architecture) Rohdaten beibehalten („Bronze Layer“): Speichern Sie Ihre Daten genau so, wie Sie sie erhalten haben. Ein „Raw-Backup“ ist wichtig, falls Sie den ursprünglichen Input nachvollziehen müssen. Rohdaten können mit verschiedenen Methoden gestreamt werden, entweder im Batch-Modus oder über einen Message Broker wie Kafka. Plattformen wie Databricks bieten zudem integrierte Tools wie etwa Autoloader, um den Datenerfassungsprozess möglichst nahtlos zu gestalten. Bereinigen und standardisieren („Silver Layer“): Im nächsten Schritt gilt es, die Rohdaten zu organisieren und zu bereinigen. Dabei werden diese in ein einheitliches Format umgewandelt, sodass sie jederzeit für Analysen bereit sind. Auf dieser Ebene können ACID-Transaktionen durchgesetzt werden. Insights gewinnen („Gold Layer“): Verfeinern und aggregieren Sie die bereinigten Daten zu Erkenntnissen, die wichtige Versicherungsfunktionen wie Underwriting, Risikoanalyse und regulatorisches Reporting direkt unterstützen. 3. Data Governance Datenqualität sicherstellen: Setzen Sie strenge Regeln (Schemata) durch, um zu gewährleisten, dass alle eingehenden Daten dem erwarteten Format entsprechen. Das minimiert Fehler und sorgt für zuverlässige Daten. Zuverlässigkeit gewährleisten: Nutzen Sie Mechanismen wie ACID-Transaktionen, um sicherzustellen, dass jede Aktualisierung der Daten entweder vollständig abgeschlossen oder im Fall eines Fehlers zuverlässig rückgängig gemacht wird. Mit Funktionen wie „Time Travel“ (Delta Lakehouse) ist es außerdem möglich, historische Daten für Audits oder Compliance-Zwecke zu überprüfen. Datenverarbeitung optimieren: Bauen Sie ein System auf, das sowohl Echtzeit-Aktualisierungen als auch Batch-Verarbeitung unterstützt und so einen reibungslosen, agilen Betrieb bei Vertragsaktualisierungen, Schadensfällen und Analysen gewährleistet. Sid Dixit ist Principal Architect bei CopperPoint Insurance Companies und Kontributor des Forbes Technology Council.Sid Dixit KI-Enabler für die Versicherungsbranche Daten zu zentralisieren und eine Lakehouse-Architektur zu verankern, ist dem Training und der Performanz von KI-Modellen extrem zuträglich und sorgt zudem für präzisere Insights und optimierte Predictive-Fähigkeiten. Mit Blick auf die Implementierung von Enterprise-KI-Plattformen ist ein weiterer wichtiger Aspekt zu berücksichtigen: Moderne Large Language Models (LLMs) erfordern häufig Datenverarbeitungsfähigkeiten in Echtzeit. Während ML-Modelle auf einen Use Case fokussieren, ist Generative AI (GenAI) in der Lage, mehrere Anwendungsfälle zu bearbeiten. Eine (Delta-)Lakehouse-Lösung kann diese vielfältigen Datenanforderungen effektiv managen und bietet eine einheitliche Plattform für GenAI-Initiativen im Unternehmen. Sie ist zudem in der Lage, grundlegende Herausforderungen in Bezug auf Datenqualität, -versionierung und -integration zu stemmen und erleichtert es, performante GenAI-Modelle zu entwickeln und bereitzustellen. Indem er Data Engineering, Datenwissenschaft und Business-Intelligence-Workflows zusammenführt, steht der Lakehouse-Ansatz in Kontrast zu bisherigen Ansätzen, bei denen Daten umständlich zwischen unterschiedlichen Systemen verschoben werden mussten. Mit einem Data-, beziehungsweise Delta Lakehouse entsteht hingegen ein synergetisches Ökosystem, das den Weg von der Rohdatenerfassung bis hin zur KI-Modellimplementierung erheblich beschleunigt und dabei greifbaren Geschäftswert generiert. Zum Beispiel in Form von: reduzierten Verlusten durch Betrug, schnellerer Schadensregulierung, genauerer Preisgestaltung und optimierten Kundenbeziehungen. Versicherungsunternehmen, die langfristiges Wachstum und operative Exzellenz anstreben, sollten sich von starren Legacy-Systemen verabschieden. Der Umstieg auf eine widerstandsfähige Lakehouse-Architektur beinhaltet zwar eine radikale Neugestaltung der Dateninfrastruktur – das lohnt sich aber auf lange Sicht. Denn so können auch Versicherer das Potenzial von KI in Zukunft voll ausschöpfen, Innovationen schneller vorantreiben, Risiken besser kontrollieren und ihren Kunden einen optimierten Service bieten. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!