Computerhaus Quickborn

Mangelnde Softwarequalität verursacht Millionenschäden​

width="2432" height="1368" sizes="(max-width: 2432px) 100vw, 2432px">Wer nicht auf die Qualität seiner Software achtet, nimmt unnötige Risiken in Kauf.88studio – shutterstock.com Der Takt, in dem Unternehmen neue Software bauen und ausrollen, beschleunigt sich. Während die Release-Zyklen immer kürzer werden, müssen die Verantwortlichen sorgfältig abwägen, wie sich die drei entscheidenden Faktoren Geschwindigkeit, Qualität und Kosten ausbalancieren lassen.  Das erweist sich jedoch als alles andere als trivial. Technologieverantwortliche und Fachkräfte sind offenbar uneins darüber, wie man Geschwindigkeit, Qualität und Kosten in der Softwareentwicklung gewichten sollte. Nur eines scheint klar: In diesem Bermuda-Dreieck leidet die Softwarequalität. Das ist das zentrale Ergebnis des „2025 Quality Transformation Report“ von Tricentis, einem Anbieter von Lösungen für Continuous Testing und Quality Engineering.  Wie Continuous Testing mit GenAI Schritt hält Der Report basiert auf einer weltweiten Umfrage vom März 2025 unter rund 2.750 Teilnehmern aus zehn Ländern. Zu den Befragten gehörten CIOs, CTOs, leitende Ingenieure, DevOps- und Quality-Assurance- (QA-)Verantwortliche sowie Softwareentwickler aus verschiedenen Branchen – darunter der öffentliche Sektor, Energie- und Versorgungswirtschaft, Fertigung und Finanzdienstleistungen.  Mehr Tempo geht zu Lasten der Qualität Die Umfrage hat gezeigt, vor welchen wachsenden Herausforderungen Unternehmen bei der Bereitstellung hochwertiger Software stehen. Demzufolge leidet die Softwarequalität unter konkurrierenden organisatorischen Zwängen. Während viele Betriebe vor allem darauf drängten, mit Hilfe von Softwareunterstützung Produktivitätsgewinne zu erzielen, konzentrierten sich die Delivery-Teams überwiegend darauf, die Liefergeschwindigkeit zu erhöhen (global: 45 Prozent, Deutschland: 44 Prozent). Die Verbesserung der Softwarequalität haben dagegen die wenigsten auf dem Schirm (global: 13 Prozent, Deutschland: neun Prozent).  6 Maßnahmen für bessere CI/CD-Pipelines Fast zwei Drittel (63 Prozent) der befragten Unternehmen weltweit räumten ein, Codeänderungen herauszugeben, ohne sie vollständig zu testen. In Deutschland sind es sogar 74 Prozent. Als Hauptgründe für diese Nachlässigkeit nennen die Befragten die Notwendigkeit, Release-Zyklen zu beschleunigen (global: 46 Prozent, Deutschland: 47 Prozent) sowie schlichtweg Schlampigkeit, weil nicht getesteter Code unbeabsichtigt veröffentlicht wird (global: 40 Prozent, Deutschland: 35 Prozent).  Millionenschäden durch schlechte Softwarequalität Das hat Folgen, denn die Mängel in der Softwarequalität kosten die Unternehmen Millionen. Gut vier von zehn der befragten Betriebe (global: 42 Prozent, Deutschland 41 Prozent) schätzten dass mangelhafte Softwarequalität jährliche Schäden in Höhe von einer Million Dollar oder mehr verursacht – besonders hoch sind die Verluste im Finanzsektor. Zwei Drittel rechnen im Zuge der Qualitätsprobleme mit Softwareausfällen.  Laut Umfrage verhindern in erster Linie Unstimmigkeiten zwischen Entwicklern und Führungskräften Bemühungen hinsichtlich einer besseren Softwarequalität. Schlechte Kommunikation zwischen Softwareentwicklungs- und Qualitätssicherungs-Teams (global: 33 Prozent, Deutschland: 35 Prozent) und eine fehlende Abstimmung zwischen Führung und Softwareentwicklungs-Teams (global: 28 Prozent, Deutschland: 31 Prozent) erweisen sich als die größten Hindernisse. 5 Tipps gegen Deployment-Desaster „Die jüngsten Softwareausfälle aufgrund ungeprüfter oder ungetesteter Codeänderungen zeigen, wie entscheidend hochwertige Software für das gesamte organisatorische Ökosystem ist“, erklärte Kevin Thompson, Chief Executive Officer von Tricentis. Es sei von größter Bedeutung, das richtige Gleichgewicht zwischen Qualität und Geschwindigkeit zu finden, um den sich entwickelnden technologischen Anforderungen gerecht zu werden. Bessere Software durch Künstliche Intelligenz? Viele Hoffnungen, die Softwarequalität zu verbessern, ruhen auf KI. Die Mehrheit der befragten Organisationen (global: 82 Prozent, Deutschland: 75 Prozent) setzt darauf, monotone Aufgaben im Entwicklungs- und Bereitstellungsprozess an KI-Agenten abzugeben – und so mehr Zeit für strategischere und erfüllendere Arbeit zu gewinnen. Insgesamt glauben 84 Prozent der Befragten (Deutschland 80 Prozent), dass KI Entwicklungsteams dabei unterstützen wird, Software auch unter immer engeren Zeitvorgaben bereitzustellen.  Fast neun von zehn CIOs, CTOs und Software-Delivery-Verantwortlichen sind zuversichtlich, dass KI eigenständig Entscheidungen über Software-Releases treffen könne. Praktisch alle Befragten schätzen autonomes Testen als nützlich für die Qualitätssicherung ein. Die Bereiche, in denen der größte Nutzen durch den KI-Einsatz erwartet wird, sind:  Steigerung der Softwaregeschwindigkeit insgesamt (global: 28 Prozent, Deutschland: 31 Prozent),  generelle Verbesserung der Qualität (global: 28 Prozent, Deutschland: 26 Prozent),  Analyse von Testergebnissen (global: 25 Prozent, Deutschland: 24 Prozent) sowie  Wartung von Testfällen (global: 23 Prozent, Deutschland: 24 Prozent).  

Mangelnde Softwarequalität verursacht Millionenschäden​ width="2432" height="1368" sizes="(max-width: 2432px) 100vw, 2432px">Wer nicht auf die Qualität seiner Software achtet, nimmt unnötige Risiken in Kauf.88studio – shutterstock.com Der Takt, in dem Unternehmen neue Software bauen und ausrollen, beschleunigt sich. Während die Release-Zyklen immer kürzer werden, müssen die Verantwortlichen sorgfältig abwägen, wie sich die drei entscheidenden Faktoren Geschwindigkeit, Qualität und Kosten ausbalancieren lassen.  Das erweist sich jedoch als alles andere als trivial. Technologieverantwortliche und Fachkräfte sind offenbar uneins darüber, wie man Geschwindigkeit, Qualität und Kosten in der Softwareentwicklung gewichten sollte. Nur eines scheint klar: In diesem Bermuda-Dreieck leidet die Softwarequalität. Das ist das zentrale Ergebnis des „2025 Quality Transformation Report“ von Tricentis, einem Anbieter von Lösungen für Continuous Testing und Quality Engineering.  Wie Continuous Testing mit GenAI Schritt hält Der Report basiert auf einer weltweiten Umfrage vom März 2025 unter rund 2.750 Teilnehmern aus zehn Ländern. Zu den Befragten gehörten CIOs, CTOs, leitende Ingenieure, DevOps- und Quality-Assurance- (QA-)Verantwortliche sowie Softwareentwickler aus verschiedenen Branchen – darunter der öffentliche Sektor, Energie- und Versorgungswirtschaft, Fertigung und Finanzdienstleistungen.  Mehr Tempo geht zu Lasten der Qualität Die Umfrage hat gezeigt, vor welchen wachsenden Herausforderungen Unternehmen bei der Bereitstellung hochwertiger Software stehen. Demzufolge leidet die Softwarequalität unter konkurrierenden organisatorischen Zwängen. Während viele Betriebe vor allem darauf drängten, mit Hilfe von Softwareunterstützung Produktivitätsgewinne zu erzielen, konzentrierten sich die Delivery-Teams überwiegend darauf, die Liefergeschwindigkeit zu erhöhen (global: 45 Prozent, Deutschland: 44 Prozent). Die Verbesserung der Softwarequalität haben dagegen die wenigsten auf dem Schirm (global: 13 Prozent, Deutschland: neun Prozent).  6 Maßnahmen für bessere CI/CD-Pipelines Fast zwei Drittel (63 Prozent) der befragten Unternehmen weltweit räumten ein, Codeänderungen herauszugeben, ohne sie vollständig zu testen. In Deutschland sind es sogar 74 Prozent. Als Hauptgründe für diese Nachlässigkeit nennen die Befragten die Notwendigkeit, Release-Zyklen zu beschleunigen (global: 46 Prozent, Deutschland: 47 Prozent) sowie schlichtweg Schlampigkeit, weil nicht getesteter Code unbeabsichtigt veröffentlicht wird (global: 40 Prozent, Deutschland: 35 Prozent).  Millionenschäden durch schlechte Softwarequalität Das hat Folgen, denn die Mängel in der Softwarequalität kosten die Unternehmen Millionen. Gut vier von zehn der befragten Betriebe (global: 42 Prozent, Deutschland 41 Prozent) schätzten dass mangelhafte Softwarequalität jährliche Schäden in Höhe von einer Million Dollar oder mehr verursacht – besonders hoch sind die Verluste im Finanzsektor. Zwei Drittel rechnen im Zuge der Qualitätsprobleme mit Softwareausfällen.  Laut Umfrage verhindern in erster Linie Unstimmigkeiten zwischen Entwicklern und Führungskräften Bemühungen hinsichtlich einer besseren Softwarequalität. Schlechte Kommunikation zwischen Softwareentwicklungs- und Qualitätssicherungs-Teams (global: 33 Prozent, Deutschland: 35 Prozent) und eine fehlende Abstimmung zwischen Führung und Softwareentwicklungs-Teams (global: 28 Prozent, Deutschland: 31 Prozent) erweisen sich als die größten Hindernisse. 5 Tipps gegen Deployment-Desaster „Die jüngsten Softwareausfälle aufgrund ungeprüfter oder ungetesteter Codeänderungen zeigen, wie entscheidend hochwertige Software für das gesamte organisatorische Ökosystem ist“, erklärte Kevin Thompson, Chief Executive Officer von Tricentis. Es sei von größter Bedeutung, das richtige Gleichgewicht zwischen Qualität und Geschwindigkeit zu finden, um den sich entwickelnden technologischen Anforderungen gerecht zu werden. Bessere Software durch Künstliche Intelligenz? Viele Hoffnungen, die Softwarequalität zu verbessern, ruhen auf KI. Die Mehrheit der befragten Organisationen (global: 82 Prozent, Deutschland: 75 Prozent) setzt darauf, monotone Aufgaben im Entwicklungs- und Bereitstellungsprozess an KI-Agenten abzugeben – und so mehr Zeit für strategischere und erfüllendere Arbeit zu gewinnen. Insgesamt glauben 84 Prozent der Befragten (Deutschland 80 Prozent), dass KI Entwicklungsteams dabei unterstützen wird, Software auch unter immer engeren Zeitvorgaben bereitzustellen.  Fast neun von zehn CIOs, CTOs und Software-Delivery-Verantwortlichen sind zuversichtlich, dass KI eigenständig Entscheidungen über Software-Releases treffen könne. Praktisch alle Befragten schätzen autonomes Testen als nützlich für die Qualitätssicherung ein. Die Bereiche, in denen der größte Nutzen durch den KI-Einsatz erwartet wird, sind:  Steigerung der Softwaregeschwindigkeit insgesamt (global: 28 Prozent, Deutschland: 31 Prozent),  generelle Verbesserung der Qualität (global: 28 Prozent, Deutschland: 26 Prozent),  Analyse von Testergebnissen (global: 25 Prozent, Deutschland: 24 Prozent) sowie  Wartung von Testfällen (global: 23 Prozent, Deutschland: 24 Prozent). 

width=”2432″ height=”1368″ sizes=”(max-width: 2432px) 100vw, 2432px”>Wer nicht auf die Qualität seiner Software achtet, nimmt unnötige Risiken in Kauf.88studio – shutterstock.com Der Takt, in dem Unternehmen neue Software bauen und ausrollen, beschleunigt sich. Während die Release-Zyklen immer kürzer werden, müssen die Verantwortlichen sorgfältig abwägen, wie sich die drei entscheidenden Faktoren Geschwindigkeit, Qualität und Kosten ausbalancieren lassen.  Das erweist sich jedoch als alles andere als trivial. Technologieverantwortliche und Fachkräfte sind offenbar uneins darüber, wie man Geschwindigkeit, Qualität und Kosten in der Softwareentwicklung gewichten sollte. Nur eines scheint klar: In diesem Bermuda-Dreieck leidet die Softwarequalität. Das ist das zentrale Ergebnis des „2025 Quality Transformation Report“ von Tricentis, einem Anbieter von Lösungen für Continuous Testing und Quality Engineering.  Wie Continuous Testing mit GenAI Schritt hält Der Report basiert auf einer weltweiten Umfrage vom März 2025 unter rund 2.750 Teilnehmern aus zehn Ländern. Zu den Befragten gehörten CIOs, CTOs, leitende Ingenieure, DevOps- und Quality-Assurance- (QA-)Verantwortliche sowie Softwareentwickler aus verschiedenen Branchen – darunter der öffentliche Sektor, Energie- und Versorgungswirtschaft, Fertigung und Finanzdienstleistungen.  Mehr Tempo geht zu Lasten der Qualität Die Umfrage hat gezeigt, vor welchen wachsenden Herausforderungen Unternehmen bei der Bereitstellung hochwertiger Software stehen. Demzufolge leidet die Softwarequalität unter konkurrierenden organisatorischen Zwängen. Während viele Betriebe vor allem darauf drängten, mit Hilfe von Softwareunterstützung Produktivitätsgewinne zu erzielen, konzentrierten sich die Delivery-Teams überwiegend darauf, die Liefergeschwindigkeit zu erhöhen (global: 45 Prozent, Deutschland: 44 Prozent). Die Verbesserung der Softwarequalität haben dagegen die wenigsten auf dem Schirm (global: 13 Prozent, Deutschland: neun Prozent).  6 Maßnahmen für bessere CI/CD-Pipelines Fast zwei Drittel (63 Prozent) der befragten Unternehmen weltweit räumten ein, Codeänderungen herauszugeben, ohne sie vollständig zu testen. In Deutschland sind es sogar 74 Prozent. Als Hauptgründe für diese Nachlässigkeit nennen die Befragten die Notwendigkeit, Release-Zyklen zu beschleunigen (global: 46 Prozent, Deutschland: 47 Prozent) sowie schlichtweg Schlampigkeit, weil nicht getesteter Code unbeabsichtigt veröffentlicht wird (global: 40 Prozent, Deutschland: 35 Prozent).  Millionenschäden durch schlechte Softwarequalität Das hat Folgen, denn die Mängel in der Softwarequalität kosten die Unternehmen Millionen. Gut vier von zehn der befragten Betriebe (global: 42 Prozent, Deutschland 41 Prozent) schätzten dass mangelhafte Softwarequalität jährliche Schäden in Höhe von einer Million Dollar oder mehr verursacht – besonders hoch sind die Verluste im Finanzsektor. Zwei Drittel rechnen im Zuge der Qualitätsprobleme mit Softwareausfällen.  Laut Umfrage verhindern in erster Linie Unstimmigkeiten zwischen Entwicklern und Führungskräften Bemühungen hinsichtlich einer besseren Softwarequalität. Schlechte Kommunikation zwischen Softwareentwicklungs- und Qualitätssicherungs-Teams (global: 33 Prozent, Deutschland: 35 Prozent) und eine fehlende Abstimmung zwischen Führung und Softwareentwicklungs-Teams (global: 28 Prozent, Deutschland: 31 Prozent) erweisen sich als die größten Hindernisse. 5 Tipps gegen Deployment-Desaster „Die jüngsten Softwareausfälle aufgrund ungeprüfter oder ungetesteter Codeänderungen zeigen, wie entscheidend hochwertige Software für das gesamte organisatorische Ökosystem ist“, erklärte Kevin Thompson, Chief Executive Officer von Tricentis. Es sei von größter Bedeutung, das richtige Gleichgewicht zwischen Qualität und Geschwindigkeit zu finden, um den sich entwickelnden technologischen Anforderungen gerecht zu werden. Bessere Software durch Künstliche Intelligenz? Viele Hoffnungen, die Softwarequalität zu verbessern, ruhen auf KI. Die Mehrheit der befragten Organisationen (global: 82 Prozent, Deutschland: 75 Prozent) setzt darauf, monotone Aufgaben im Entwicklungs- und Bereitstellungsprozess an KI-Agenten abzugeben – und so mehr Zeit für strategischere und erfüllendere Arbeit zu gewinnen. Insgesamt glauben 84 Prozent der Befragten (Deutschland 80 Prozent), dass KI Entwicklungsteams dabei unterstützen wird, Software auch unter immer engeren Zeitvorgaben bereitzustellen.  Fast neun von zehn CIOs, CTOs und Software-Delivery-Verantwortlichen sind zuversichtlich, dass KI eigenständig Entscheidungen über Software-Releases treffen könne. Praktisch alle Befragten schätzen autonomes Testen als nützlich für die Qualitätssicherung ein. Die Bereiche, in denen der größte Nutzen durch den KI-Einsatz erwartet wird, sind:  Steigerung der Softwaregeschwindigkeit insgesamt (global: 28 Prozent, Deutschland: 31 Prozent),  generelle Verbesserung der Qualität (global: 28 Prozent, Deutschland: 26 Prozent),  Analyse von Testergebnissen (global: 25 Prozent, Deutschland: 24 Prozent) sowie  Wartung von Testfällen (global: 23 Prozent, Deutschland: 24 Prozent).  

Nach oben scrollen
×