OpenTelemetry – das “next big thing” im Open-Source-Bereich?BG-Studio | shutterstock.com Einige Projekte aus dem Open-Source-Bereich sind echte Erfolgs-Stories und haben sich zu Standardkomponenten der IT-Infrastruktur entwickelt. Linux oder Kubernetes zum Beispiel. OpenTelemetry, ein Projekt der Cloud Native Computing Foundation (CNCF), ist derzeit auf dem besten Weg, daran anzuknüpfen. Das quelloffene Observability-Framework adressiert ein wesentliches Problem vieler Netzwerkprofis: Ausfälle zu vermeiden und parallel eine gleichbleibend hohe Performance der Applikationen über zunehmend komplexe und undurchsichtige Multi-Cloud-Umgebungen hinweg sicherzustellen. Casber Wang, Partner bei der Risikokapitalgesellschaft Sapphire Ventures, ordnet ein: „Bislang wurde der Observability-Markt von etablierten Unternehmen und ihren proprietären Datenformaten dominiert. Das hat zu einem Lock-in-Szenario geführt, das Unternehmen dazu zwingt, unzusammenhängende Monitoring-Lösungen zu integrieren und zu managen.“ Im Gegensatz dazu ermöglicht es OpenTelemetry – oder OTel – , drei grundlegende Arten von Telemetriedaten anbieterunabhängig einzuholen: Logs (Zeitstempel von Ereignissen), Metriken (Kennzahlen zur Ressourcennutzung und Anwendungsleistung), und Traces (bieten in verteilten Cloud-Umgebungen Einblicke in die Performance auf Anwendungsebene). Diese Daten aggregiert OTel in einer Single Source of Truth. Da das Framework weder Informationen speichert noch eine Möglichkeit bietet, diese zu analysieren, abzufragen oder zu präsentieren, werden die gesammelten Informationen anschließend an ein Backend-System übertragen, das Observability, Netzwerk-Monitoring oder Application Performance Management bereitstellt. Im Folgenden haben wir fünf Gründe zusammengetragen, die dafürsprechen, dass 2025 für OpenTelemetry das Jahr des Durchbruchs wird. 1. OpenTelemetry erfährt breite Akzeptanz Dafür spricht zunächst einmal, dass inzwischen nahezu alle relevanten Anbieter von Observability-Plattformen integrierten Support für das Open-Source-Framework bieten. Dazu gehören laut Gartners Magic Quadrant für Observability-Plattformen vom August 2024 führende Anbieter wie: Chronosphere, New Relic, Datadog, Dynatrace, ServiceNow, Splunk und SumoLogic. Microsoft wird hingegen von den Auguren dafür kritisiert, über Azure Monitor bislang nicht zu ermöglichen, OTel-Daten automatisiert zu erfassen. Dazu ist ein dediziertes Export-Tool notwendig. 2. OTel-Zertifizierung im Anmarsch Zertifizierungsprogramme bieten IT-Profis einen formalisierten Prozess, um sich neue Fähigkeiten anzueignen. Das wird bald auch mit Blick auf OpenTelemetry möglich sein: Sowohl die CNCF als auch die Linux Foundation haben eine OTel-Zertifizierung angekündigt. Sie zielt darauf ab, die Skills auszubauen, die nötig sind, um Telemetriedaten in verteilten Systemen zu nutzen. Die Zertifizierung zum OpenTelemetry Certified Associate (OTCA) richtet sich in erster Linie an: Anwendungsingenieure, DevOps-Spezialisten, System-Reliability-Profis, Plattform-Engineers, und IT-Fachkräfte. „Ein OTCA-Zertifikat vermittelt Ihnen gefragte Fähigkeiten für moderne IT-Prozesse“, argumentiert Clyde Seepersad, Senior Vice President und General Manager der „Education“-Abteilung der Linux Foundation. Er fügt hinzu: „Mit diesen Skills positionieren Sie sich in einer Zeit zunehmend komplexer und verteilter Systeme als proaktiver Problemlöser mit Expertenwissen.“ Eine OTCA-Prüfung abzulegen, ist bei der Linux Foundation ab Januar 2025 möglich. Die Kosten dafür liegen bei 250 Dollar. 3. OpenTelemetry wird zum Ende-zu-Ende-Tool Ursprünglich war OpenTelemetry für Cloud-Native-Applikationen konzipiert. Allerdings hat sich das Open-Source-Framework inzwischen zu einem wesentlich mächtigeren Ende-zu-Ende-Tool entwickelt. Dazu hat insbesondere die Gründung einer Special Interest Group innerhalb der OTel-Community beigetragen, die sich der CI/CD-Pipeline verschrieben hat. Projektleiter Dotan Horovits liefert Kontext: „CI/CD-Observability ist unerlässlich, um sicherzustellen, dass Software effizient und zuverlässig für die Produktion freigegeben wird. Indem sie Observability in CI/CD-Workflows integrieren, können Teams den Zustand und die Leistung ihrer Pipelines in Echtzeit überwachen und so Engpässe und verbesserungswürdige Bereiche identifizieren.“ An dieser Stelle seien offene Standards von entscheidender Bedeutung, so der Experte: „Sie schaffen eine einheitliche, Tool- und Anbieter-unabhängige Sprache, die eine kohärente Observability ermöglicht.“ 4. OTel integriert Business-Daten Telemetrie-Rohdaten mit der Netzwerk-Performance zu korrelieren ist wichtig – OpenTelemetry-Daten aus geschäftlicher Perspektive zu analysieren, ist für Unternehmen allerdings noch wichtiger. Das belegt auch eine aktuelle Umfrage (Download gegen Daten) des Observability-Anbieters New Relic. Risikokapital-Experte Wang erklärt die Hintergründe: „Tools für Product Experience und System Monitoring wurden traditionell in Silos betrieben. In jüngster Zeit beobachten wir, dass diese Bereiche zusammengeführt werden, um besser zu durchdringen, wie Endbenutzerverhalten und Signale auf Systemebene zusammenhängen.“ OTel ermöglicht genau das. 5. OpenTelemetry liefert AIOps-Grundlage Das explosionsartig gestiegene Interesse an generativer, künstlicher Intelligenz und Large Language Models (LLMs) hat auch dazu geführt, dass das Datenvolumen, das innerhalb von Unternehmensnetzwerken generiert, verarbeitet und übertragen wird, drastisch gestiegen ist. Um sicherzustellen, dass die KI-Systeme effizient arbeiten, muss dann auch ein entsprechend höheres Volumen an Telemetriedaten gesammelt werden. Als herstellerneutraler, branchenübergreifend anerkannter Standard kommt OpenTelemetry eine entscheidende Bedeutung zu, wenn es darum geht, Bottlenecks oder andere Performance-Probleme in Zusammenhang mit datenintensiven KI-Apps zu erkennen. Die anbieterneutralen Kern-Telemetriedaten, die OTel liefert, sind ein grundlegendes Element für AIOps – und damit für performante KI-Analysen, die Netzwerkmanager dabei unterstützen, ihre täglichen Arbeitsabläufe zu automatisieren und zu optimieren. The #OpenTelemetry End-User SIG surveyed the community on how user-friendly our documentation is! You can read the insights from the survey in our latest blog post:[image or embed]— OpenTelemetry (@opentelemetry.io) 19. Dezember 2024 um 11:25 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
OpenTelemetry wird 2025 groß
OpenTelemetry – das “next big thing” im Open-Source-Bereich?BG-Studio | shutterstock.com Einige Projekte aus dem Open-Source-Bereich sind echte Erfolgs-Stories und haben sich zu Standardkomponenten der IT-Infrastruktur entwickelt. Linux oder Kubernetes zum Beispiel. OpenTelemetry, ein Projekt der Cloud Native Computing Foundation (CNCF), ist derzeit auf dem besten Weg, daran anzuknüpfen. Das quelloffene Observability-Framework adressiert ein wesentliches Problem vieler Netzwerkprofis: Ausfälle zu vermeiden und parallel eine gleichbleibend hohe Performance der Applikationen über zunehmend komplexe und undurchsichtige Multi-Cloud-Umgebungen hinweg sicherzustellen. Casber Wang, Partner bei der Risikokapitalgesellschaft Sapphire Ventures, ordnet ein: „Bislang wurde der Observability-Markt von etablierten Unternehmen und ihren proprietären Datenformaten dominiert. Das hat zu einem Lock-in-Szenario geführt, das Unternehmen dazu zwingt, unzusammenhängende Monitoring-Lösungen zu integrieren und zu managen.“ Im Gegensatz dazu ermöglicht es OpenTelemetry – oder OTel – , drei grundlegende Arten von Telemetriedaten anbieterunabhängig einzuholen: Logs (Zeitstempel von Ereignissen), Metriken (Kennzahlen zur Ressourcennutzung und Anwendungsleistung), und Traces (bieten in verteilten Cloud-Umgebungen Einblicke in die Performance auf Anwendungsebene). Diese Daten aggregiert OTel in einer Single Source of Truth. Da das Framework weder Informationen speichert noch eine Möglichkeit bietet, diese zu analysieren, abzufragen oder zu präsentieren, werden die gesammelten Informationen anschließend an ein Backend-System übertragen, das Observability, Netzwerk-Monitoring oder Application Performance Management bereitstellt. Im Folgenden haben wir fünf Gründe zusammengetragen, die dafürsprechen, dass 2025 für OpenTelemetry das Jahr des Durchbruchs wird. 1. OpenTelemetry erfährt breite Akzeptanz Dafür spricht zunächst einmal, dass inzwischen nahezu alle relevanten Anbieter von Observability-Plattformen integrierten Support für das Open-Source-Framework bieten. Dazu gehören laut Gartners Magic Quadrant für Observability-Plattformen vom August 2024 führende Anbieter wie: Chronosphere, New Relic, Datadog, Dynatrace, ServiceNow, Splunk und SumoLogic. Microsoft wird hingegen von den Auguren dafür kritisiert, über Azure Monitor bislang nicht zu ermöglichen, OTel-Daten automatisiert zu erfassen. Dazu ist ein dediziertes Export-Tool notwendig. 2. OTel-Zertifizierung im Anmarsch Zertifizierungsprogramme bieten IT-Profis einen formalisierten Prozess, um sich neue Fähigkeiten anzueignen. Das wird bald auch mit Blick auf OpenTelemetry möglich sein: Sowohl die CNCF als auch die Linux Foundation haben eine OTel-Zertifizierung angekündigt. Sie zielt darauf ab, die Skills auszubauen, die nötig sind, um Telemetriedaten in verteilten Systemen zu nutzen. Die Zertifizierung zum OpenTelemetry Certified Associate (OTCA) richtet sich in erster Linie an: Anwendungsingenieure, DevOps-Spezialisten, System-Reliability-Profis, Plattform-Engineers, und IT-Fachkräfte. „Ein OTCA-Zertifikat vermittelt Ihnen gefragte Fähigkeiten für moderne IT-Prozesse“, argumentiert Clyde Seepersad, Senior Vice President und General Manager der „Education“-Abteilung der Linux Foundation. Er fügt hinzu: „Mit diesen Skills positionieren Sie sich in einer Zeit zunehmend komplexer und verteilter Systeme als proaktiver Problemlöser mit Expertenwissen.“ Eine OTCA-Prüfung abzulegen, ist bei der Linux Foundation ab Januar 2025 möglich. Die Kosten dafür liegen bei 250 Dollar. 3. OpenTelemetry wird zum Ende-zu-Ende-Tool Ursprünglich war OpenTelemetry für Cloud-Native-Applikationen konzipiert. Allerdings hat sich das Open-Source-Framework inzwischen zu einem wesentlich mächtigeren Ende-zu-Ende-Tool entwickelt. Dazu hat insbesondere die Gründung einer Special Interest Group innerhalb der OTel-Community beigetragen, die sich der CI/CD-Pipeline verschrieben hat. Projektleiter Dotan Horovits liefert Kontext: „CI/CD-Observability ist unerlässlich, um sicherzustellen, dass Software effizient und zuverlässig für die Produktion freigegeben wird. Indem sie Observability in CI/CD-Workflows integrieren, können Teams den Zustand und die Leistung ihrer Pipelines in Echtzeit überwachen und so Engpässe und verbesserungswürdige Bereiche identifizieren.“ An dieser Stelle seien offene Standards von entscheidender Bedeutung, so der Experte: „Sie schaffen eine einheitliche, Tool- und Anbieter-unabhängige Sprache, die eine kohärente Observability ermöglicht.“ 4. OTel integriert Business-Daten Telemetrie-Rohdaten mit der Netzwerk-Performance zu korrelieren ist wichtig – OpenTelemetry-Daten aus geschäftlicher Perspektive zu analysieren, ist für Unternehmen allerdings noch wichtiger. Das belegt auch eine aktuelle Umfrage (Download gegen Daten) des Observability-Anbieters New Relic. Risikokapital-Experte Wang erklärt die Hintergründe: „Tools für Product Experience und System Monitoring wurden traditionell in Silos betrieben. In jüngster Zeit beobachten wir, dass diese Bereiche zusammengeführt werden, um besser zu durchdringen, wie Endbenutzerverhalten und Signale auf Systemebene zusammenhängen.“ OTel ermöglicht genau das. 5. OpenTelemetry liefert AIOps-Grundlage Das explosionsartig gestiegene Interesse an generativer, künstlicher Intelligenz und Large Language Models (LLMs) hat auch dazu geführt, dass das Datenvolumen, das innerhalb von Unternehmensnetzwerken generiert, verarbeitet und übertragen wird, drastisch gestiegen ist. Um sicherzustellen, dass die KI-Systeme effizient arbeiten, muss dann auch ein entsprechend höheres Volumen an Telemetriedaten gesammelt werden. Als herstellerneutraler, branchenübergreifend anerkannter Standard kommt OpenTelemetry eine entscheidende Bedeutung zu, wenn es darum geht, Bottlenecks oder andere Performance-Probleme in Zusammenhang mit datenintensiven KI-Apps zu erkennen. Die anbieterneutralen Kern-Telemetriedaten, die OTel liefert, sind ein grundlegendes Element für AIOps – und damit für performante KI-Analysen, die Netzwerkmanager dabei unterstützen, ihre täglichen Arbeitsabläufe zu automatisieren und zu optimieren. The #OpenTelemetry End-User SIG surveyed the community on how user-friendly our documentation is! You can read the insights from the survey in our latest blog post:[image or embed]— OpenTelemetry (@opentelemetry.io) 19. Dezember 2024 um 11:25 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
OpenTelemetry wird 2025 groß OpenTelemetry – das “next big thing” im Open-Source-Bereich?BG-Studio | shutterstock.com Einige Projekte aus dem Open-Source-Bereich sind echte Erfolgs-Stories und haben sich zu Standardkomponenten der IT-Infrastruktur entwickelt. Linux oder Kubernetes zum Beispiel. OpenTelemetry, ein Projekt der Cloud Native Computing Foundation (CNCF), ist derzeit auf dem besten Weg, daran anzuknüpfen. Das quelloffene Observability-Framework adressiert ein wesentliches Problem vieler Netzwerkprofis: Ausfälle zu vermeiden und parallel eine gleichbleibend hohe Performance der Applikationen über zunehmend komplexe und undurchsichtige Multi-Cloud-Umgebungen hinweg sicherzustellen. Casber Wang, Partner bei der Risikokapitalgesellschaft Sapphire Ventures, ordnet ein: „Bislang wurde der Observability-Markt von etablierten Unternehmen und ihren proprietären Datenformaten dominiert. Das hat zu einem Lock-in-Szenario geführt, das Unternehmen dazu zwingt, unzusammenhängende Monitoring-Lösungen zu integrieren und zu managen.“ Im Gegensatz dazu ermöglicht es OpenTelemetry – oder OTel – , drei grundlegende Arten von Telemetriedaten anbieterunabhängig einzuholen: Logs (Zeitstempel von Ereignissen), Metriken (Kennzahlen zur Ressourcennutzung und Anwendungsleistung), und Traces (bieten in verteilten Cloud-Umgebungen Einblicke in die Performance auf Anwendungsebene). Diese Daten aggregiert OTel in einer Single Source of Truth. Da das Framework weder Informationen speichert noch eine Möglichkeit bietet, diese zu analysieren, abzufragen oder zu präsentieren, werden die gesammelten Informationen anschließend an ein Backend-System übertragen, das Observability, Netzwerk-Monitoring oder Application Performance Management bereitstellt. Im Folgenden haben wir fünf Gründe zusammengetragen, die dafürsprechen, dass 2025 für OpenTelemetry das Jahr des Durchbruchs wird. 1. OpenTelemetry erfährt breite Akzeptanz Dafür spricht zunächst einmal, dass inzwischen nahezu alle relevanten Anbieter von Observability-Plattformen integrierten Support für das Open-Source-Framework bieten. Dazu gehören laut Gartners Magic Quadrant für Observability-Plattformen vom August 2024 führende Anbieter wie: Chronosphere, New Relic, Datadog, Dynatrace, ServiceNow, Splunk und SumoLogic. Microsoft wird hingegen von den Auguren dafür kritisiert, über Azure Monitor bislang nicht zu ermöglichen, OTel-Daten automatisiert zu erfassen. Dazu ist ein dediziertes Export-Tool notwendig. 2. OTel-Zertifizierung im Anmarsch Zertifizierungsprogramme bieten IT-Profis einen formalisierten Prozess, um sich neue Fähigkeiten anzueignen. Das wird bald auch mit Blick auf OpenTelemetry möglich sein: Sowohl die CNCF als auch die Linux Foundation haben eine OTel-Zertifizierung angekündigt. Sie zielt darauf ab, die Skills auszubauen, die nötig sind, um Telemetriedaten in verteilten Systemen zu nutzen. Die Zertifizierung zum OpenTelemetry Certified Associate (OTCA) richtet sich in erster Linie an: Anwendungsingenieure, DevOps-Spezialisten, System-Reliability-Profis, Plattform-Engineers, und IT-Fachkräfte. „Ein OTCA-Zertifikat vermittelt Ihnen gefragte Fähigkeiten für moderne IT-Prozesse“, argumentiert Clyde Seepersad, Senior Vice President und General Manager der „Education“-Abteilung der Linux Foundation. Er fügt hinzu: „Mit diesen Skills positionieren Sie sich in einer Zeit zunehmend komplexer und verteilter Systeme als proaktiver Problemlöser mit Expertenwissen.“ Eine OTCA-Prüfung abzulegen, ist bei der Linux Foundation ab Januar 2025 möglich. Die Kosten dafür liegen bei 250 Dollar. 3. OpenTelemetry wird zum Ende-zu-Ende-Tool Ursprünglich war OpenTelemetry für Cloud-Native-Applikationen konzipiert. Allerdings hat sich das Open-Source-Framework inzwischen zu einem wesentlich mächtigeren Ende-zu-Ende-Tool entwickelt. Dazu hat insbesondere die Gründung einer Special Interest Group innerhalb der OTel-Community beigetragen, die sich der CI/CD-Pipeline verschrieben hat. Projektleiter Dotan Horovits liefert Kontext: „CI/CD-Observability ist unerlässlich, um sicherzustellen, dass Software effizient und zuverlässig für die Produktion freigegeben wird. Indem sie Observability in CI/CD-Workflows integrieren, können Teams den Zustand und die Leistung ihrer Pipelines in Echtzeit überwachen und so Engpässe und verbesserungswürdige Bereiche identifizieren.“ An dieser Stelle seien offene Standards von entscheidender Bedeutung, so der Experte: „Sie schaffen eine einheitliche, Tool- und Anbieter-unabhängige Sprache, die eine kohärente Observability ermöglicht.“ 4. OTel integriert Business-Daten Telemetrie-Rohdaten mit der Netzwerk-Performance zu korrelieren ist wichtig – OpenTelemetry-Daten aus geschäftlicher Perspektive zu analysieren, ist für Unternehmen allerdings noch wichtiger. Das belegt auch eine aktuelle Umfrage (Download gegen Daten) des Observability-Anbieters New Relic. Risikokapital-Experte Wang erklärt die Hintergründe: „Tools für Product Experience und System Monitoring wurden traditionell in Silos betrieben. In jüngster Zeit beobachten wir, dass diese Bereiche zusammengeführt werden, um besser zu durchdringen, wie Endbenutzerverhalten und Signale auf Systemebene zusammenhängen.“ OTel ermöglicht genau das. 5. OpenTelemetry liefert AIOps-Grundlage Das explosionsartig gestiegene Interesse an generativer, künstlicher Intelligenz und Large Language Models (LLMs) hat auch dazu geführt, dass das Datenvolumen, das innerhalb von Unternehmensnetzwerken generiert, verarbeitet und übertragen wird, drastisch gestiegen ist. Um sicherzustellen, dass die KI-Systeme effizient arbeiten, muss dann auch ein entsprechend höheres Volumen an Telemetriedaten gesammelt werden. Als herstellerneutraler, branchenübergreifend anerkannter Standard kommt OpenTelemetry eine entscheidende Bedeutung zu, wenn es darum geht, Bottlenecks oder andere Performance-Probleme in Zusammenhang mit datenintensiven KI-Apps zu erkennen. Die anbieterneutralen Kern-Telemetriedaten, die OTel liefert, sind ein grundlegendes Element für AIOps – und damit für performante KI-Analysen, die Netzwerkmanager dabei unterstützen, ihre täglichen Arbeitsabläufe zu automatisieren und zu optimieren. The #OpenTelemetry End-User SIG surveyed the community on how user-friendly our documentation is! You can read the insights from the survey in our latest blog post:[image or embed]— OpenTelemetry (@opentelemetry.io) 19. Dezember 2024 um 11:25 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!