Computerhaus Quickborn

Brauchen Sie wirklich ein LLM?​

srcset="https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?quality=50&strip=all 5980w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">LLMs wegen der besseren Außenwirkung einzusetzen, ist nicht zielführend – meint auch unsere Autorin.Tada Images | shutterstock.com Als Director of Data Management beschäftige ich mit intensiv mit sämtlichen Aspekten von Datenstrategien, Governance und Analytics – von der Definition der Daten-Vision bis hin zum Aufbau performanter Teams in diesem Bereich. Dabei behalte ich auch das Thema Nachhaltigkeit stets im Hinterkopf, wie Sie auch in diesem Artikel bemerken werden. Der Hype, der derzeit rund um Large Language Models (LLMs; große Sprachmodelle) tobt, ist angesichts ihres nahezu grenzenlosen Potenzials nachvollziehbar:   Rund um Analytics ermöglichen große Sprachmodelle Datenanalysen auf Basis natürliche Sprache, automatisieren Reportings und interpretieren Daten-Nuancen. Im Bereich der wissenschaftlichen Forschung können LLMs Berge von Forschungsarbeiten analysieren – zum Beispiel, um die Arzneimittelforschung erheblich zu beschleunigen. In der Einzelhandelsbranche können LLMs Produktempfehlungen personalisieren und Marketingkampagnen optimieren. Anwendungsfälle wie diese sind ohne Zweifel transformativ. Mit Blick auf den Unternehmensalltag stellt sich jedoch aus meiner Sicht immer öfter die Frage: Brauchen Unternehmen für grundlegende Analytics-Use-Cases wirklich ein Large Language Model? Oder kommt es nur zum Einsatz, weil es eben gerade en vogue ist?   Von Spatzen und Kanonen Aus meiner Erfahrung läuft es mit Blick auf Analytics-Initiativen in Unternehmen im Regelfall auf folgenden Kernanforderungen hinaus: klare Datenvisualisierungen, solide, deskriptive Analysen (Trends, KPIs), zuverlässige prädiktive Analysen, und benutzerfreundliche Dashboards. Anders ausgedrückt: Es geht in der Praxis in erster Linie darum, zuverlässige, umsetzbare Insights zu generieren. Und dafür haben wir bereits diverse, qualitativ hochwertige Tools – etwa Tableau, Qlik oder Power BI, wenn es um interaktive Dashboards und Visualisierungen geht. Oder SQL, um Zahlen auszuwerten. Selbst einfache Prediction-Modelle lassen sich mit Hilfe von Programmiersprachen wie Python oder R und Machine Learning erstellen. Ebenso können Wissenschaftler auf simple Statistik-Software zurückgreifen, um Patientendaten zu analysieren oder Retail-Händler auf Standard-Datenbanktechnologien, um ihren Bestand zu tracken. Diese traditionellen Tools sind oft mehr als ausreichend, um die grundlegenden Analytics-Bedürfnisse der meisten Unternehmen zu erfüllen. Chitra Sundaram ist Practice Director of Data Management bei Cleartelligence.Chitra Sundaram Schließlich sind LLMs vor allem auch ressourcenintensiv: Die großen Sprachmodelle zu trainieren und zu betreiben, verlangt enorme Rechenleistung – und sorgt für einen erheblichen CO₂-Fußabdruck. Das steht den Prinzipien einer nachhaltigen IT entgegen, die die Ressourcennutzung optimieren, Ausschuss reduzieren und Lösungen in angemessener Größe fördern will. Ein Large Language Model zu nutzen, um einen einfachen Durchschnittswert zu ermitteln, ist vor diesem Hintergrund kontraproduktiv. Man könnte auch sagen, das wäre wie mit Kanonen auf Spatzen zu schießen. Leider erlebt man genau das in der Praxis regelmäßig. Zum Beispiel bei einem Kunden aus der Luxus-Möbelbranche. Dieser war versucht, für Stimmungsanalysen seiner Kunden die neuesten KI-Technologien einzusetzen. Nach einem gründlichen Assessment haben wir ihm jedoch einen praktischeren Ansatz empfohlen: Mit Hilfe bestehender Bibliotheken für Natural Language Processing konnten wir die gewünschten Sentiment-Analysen in einer Python-Umgebung realisieren – und zwar mit einem Bruchteil der Rechenressourcen, die für KI nötig gewesen wären. So konnten wir nicht nur die Kosten, sondern parallel auch die Umweltbelastung erheblich reduzieren. Das wesentliche Problem besteht einfach darin, dass die Begeisterung für neue Technologien dazu führen kann, dass man blind wird für einfache, naheliegende und praktische Problemlösungen. Wo LLMs Sinn machen Große Sprachmodelle sind eine Überlegung wert, wenn Sie mit wirklich komplexen, unstrukturierten (oder einem Mix aus strukturierten und unstrukturierten) Daten arbeiten. Sie sind außerdem nützlich für dynamische Situationen, in denen sich Daten und Anforderungen kontinuierlich ändern. Und last but not least natürlich auch, um die User Experience zu optimieren (Stichwort natürlichsprachliche Abfragen). Hier können LLMs wirklich glänzen – und machen Sinn (insofern die Outputs auch strategisch eingesetzt werden). Ich rate meinen Kunden regelmäßig, auf einen hybriden Ansatz zu setzen: Nutzen Sie traditionelle Tools für strukturierte Daten und reservieren Sie LLMs für wirklich komplexe Aufgaben. So können Sie die Stärken beider Welten nutzen, die Effizienz maximieren und den Ressourcenverbrauch minimieren. Im Kern geht es darum, die richtige Balance zwischen Leistungsfähigkeit und Praktikabilität zu finden. Anders ausgedrückt: Nachhaltig geht Analytics, wenn das richtige Tool für die richtige Aufgabe gewählt wird – statt einfach blind einem gerade aktuellen Trend zu folgen. Vergessen Sie also bei allem „KI-Wettrüsten“ nicht, dass einfache Lösungen oft die nachhaltigsten sind. Sehen Sie davon ab, Kanonen auf Spatzen zu richten und hören Sie auf die Stimme der Vernunft: Nicht Hype sollte über Technologieentscheidungen bestimmen, sondern Business-Anforderungen und Nachhaltigkeitsaspekte. Nur so lässt sich Datenpotenzial heben, während parallel die Umweltauswirkungen minimiert werden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Brauchen Sie wirklich ein LLM?​ srcset="https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?quality=50&strip=all 5980w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">LLMs wegen der besseren Außenwirkung einzusetzen, ist nicht zielführend – meint auch unsere Autorin.Tada Images | shutterstock.com Als Director of Data Management beschäftige ich mit intensiv mit sämtlichen Aspekten von Datenstrategien, Governance und Analytics – von der Definition der Daten-Vision bis hin zum Aufbau performanter Teams in diesem Bereich. Dabei behalte ich auch das Thema Nachhaltigkeit stets im Hinterkopf, wie Sie auch in diesem Artikel bemerken werden. Der Hype, der derzeit rund um Large Language Models (LLMs; große Sprachmodelle) tobt, ist angesichts ihres nahezu grenzenlosen Potenzials nachvollziehbar:   Rund um Analytics ermöglichen große Sprachmodelle Datenanalysen auf Basis natürliche Sprache, automatisieren Reportings und interpretieren Daten-Nuancen. Im Bereich der wissenschaftlichen Forschung können LLMs Berge von Forschungsarbeiten analysieren – zum Beispiel, um die Arzneimittelforschung erheblich zu beschleunigen. In der Einzelhandelsbranche können LLMs Produktempfehlungen personalisieren und Marketingkampagnen optimieren. Anwendungsfälle wie diese sind ohne Zweifel transformativ. Mit Blick auf den Unternehmensalltag stellt sich jedoch aus meiner Sicht immer öfter die Frage: Brauchen Unternehmen für grundlegende Analytics-Use-Cases wirklich ein Large Language Model? Oder kommt es nur zum Einsatz, weil es eben gerade en vogue ist?   Von Spatzen und Kanonen Aus meiner Erfahrung läuft es mit Blick auf Analytics-Initiativen in Unternehmen im Regelfall auf folgenden Kernanforderungen hinaus: klare Datenvisualisierungen, solide, deskriptive Analysen (Trends, KPIs), zuverlässige prädiktive Analysen, und benutzerfreundliche Dashboards. Anders ausgedrückt: Es geht in der Praxis in erster Linie darum, zuverlässige, umsetzbare Insights zu generieren. Und dafür haben wir bereits diverse, qualitativ hochwertige Tools – etwa Tableau, Qlik oder Power BI, wenn es um interaktive Dashboards und Visualisierungen geht. Oder SQL, um Zahlen auszuwerten. Selbst einfache Prediction-Modelle lassen sich mit Hilfe von Programmiersprachen wie Python oder R und Machine Learning erstellen. Ebenso können Wissenschaftler auf simple Statistik-Software zurückgreifen, um Patientendaten zu analysieren oder Retail-Händler auf Standard-Datenbanktechnologien, um ihren Bestand zu tracken. Diese traditionellen Tools sind oft mehr als ausreichend, um die grundlegenden Analytics-Bedürfnisse der meisten Unternehmen zu erfüllen. Chitra Sundaram ist Practice Director of Data Management bei Cleartelligence.Chitra Sundaram Schließlich sind LLMs vor allem auch ressourcenintensiv: Die großen Sprachmodelle zu trainieren und zu betreiben, verlangt enorme Rechenleistung – und sorgt für einen erheblichen CO₂-Fußabdruck. Das steht den Prinzipien einer nachhaltigen IT entgegen, die die Ressourcennutzung optimieren, Ausschuss reduzieren und Lösungen in angemessener Größe fördern will. Ein Large Language Model zu nutzen, um einen einfachen Durchschnittswert zu ermitteln, ist vor diesem Hintergrund kontraproduktiv. Man könnte auch sagen, das wäre wie mit Kanonen auf Spatzen zu schießen. Leider erlebt man genau das in der Praxis regelmäßig. Zum Beispiel bei einem Kunden aus der Luxus-Möbelbranche. Dieser war versucht, für Stimmungsanalysen seiner Kunden die neuesten KI-Technologien einzusetzen. Nach einem gründlichen Assessment haben wir ihm jedoch einen praktischeren Ansatz empfohlen: Mit Hilfe bestehender Bibliotheken für Natural Language Processing konnten wir die gewünschten Sentiment-Analysen in einer Python-Umgebung realisieren – und zwar mit einem Bruchteil der Rechenressourcen, die für KI nötig gewesen wären. So konnten wir nicht nur die Kosten, sondern parallel auch die Umweltbelastung erheblich reduzieren. Das wesentliche Problem besteht einfach darin, dass die Begeisterung für neue Technologien dazu führen kann, dass man blind wird für einfache, naheliegende und praktische Problemlösungen. Wo LLMs Sinn machen Große Sprachmodelle sind eine Überlegung wert, wenn Sie mit wirklich komplexen, unstrukturierten (oder einem Mix aus strukturierten und unstrukturierten) Daten arbeiten. Sie sind außerdem nützlich für dynamische Situationen, in denen sich Daten und Anforderungen kontinuierlich ändern. Und last but not least natürlich auch, um die User Experience zu optimieren (Stichwort natürlichsprachliche Abfragen). Hier können LLMs wirklich glänzen – und machen Sinn (insofern die Outputs auch strategisch eingesetzt werden). Ich rate meinen Kunden regelmäßig, auf einen hybriden Ansatz zu setzen: Nutzen Sie traditionelle Tools für strukturierte Daten und reservieren Sie LLMs für wirklich komplexe Aufgaben. So können Sie die Stärken beider Welten nutzen, die Effizienz maximieren und den Ressourcenverbrauch minimieren. Im Kern geht es darum, die richtige Balance zwischen Leistungsfähigkeit und Praktikabilität zu finden. Anders ausgedrückt: Nachhaltig geht Analytics, wenn das richtige Tool für die richtige Aufgabe gewählt wird – statt einfach blind einem gerade aktuellen Trend zu folgen. Vergessen Sie also bei allem „KI-Wettrüsten“ nicht, dass einfache Lösungen oft die nachhaltigsten sind. Sehen Sie davon ab, Kanonen auf Spatzen zu richten und hören Sie auf die Stimme der Vernunft: Nicht Hype sollte über Technologieentscheidungen bestimmen, sondern Business-Anforderungen und Nachhaltigkeitsaspekte. Nur so lässt sich Datenpotenzial heben, während parallel die Umweltauswirkungen minimiert werden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?quality=50&strip=all 5980w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>LLMs wegen der besseren Außenwirkung einzusetzen, ist nicht zielführend – meint auch unsere Autorin.Tada Images | shutterstock.com Als Director of Data Management beschäftige ich mit intensiv mit sämtlichen Aspekten von Datenstrategien, Governance und Analytics – von der Definition der Daten-Vision bis hin zum Aufbau performanter Teams in diesem Bereich. Dabei behalte ich auch das Thema Nachhaltigkeit stets im Hinterkopf, wie Sie auch in diesem Artikel bemerken werden. Der Hype, der derzeit rund um Large Language Models (LLMs; große Sprachmodelle) tobt, ist angesichts ihres nahezu grenzenlosen Potenzials nachvollziehbar:   Rund um Analytics ermöglichen große Sprachmodelle Datenanalysen auf Basis natürliche Sprache, automatisieren Reportings und interpretieren Daten-Nuancen. Im Bereich der wissenschaftlichen Forschung können LLMs Berge von Forschungsarbeiten analysieren – zum Beispiel, um die Arzneimittelforschung erheblich zu beschleunigen. In der Einzelhandelsbranche können LLMs Produktempfehlungen personalisieren und Marketingkampagnen optimieren. Anwendungsfälle wie diese sind ohne Zweifel transformativ. Mit Blick auf den Unternehmensalltag stellt sich jedoch aus meiner Sicht immer öfter die Frage: Brauchen Unternehmen für grundlegende Analytics-Use-Cases wirklich ein Large Language Model? Oder kommt es nur zum Einsatz, weil es eben gerade en vogue ist?   Von Spatzen und Kanonen Aus meiner Erfahrung läuft es mit Blick auf Analytics-Initiativen in Unternehmen im Regelfall auf folgenden Kernanforderungen hinaus: klare Datenvisualisierungen, solide, deskriptive Analysen (Trends, KPIs), zuverlässige prädiktive Analysen, und benutzerfreundliche Dashboards. Anders ausgedrückt: Es geht in der Praxis in erster Linie darum, zuverlässige, umsetzbare Insights zu generieren. Und dafür haben wir bereits diverse, qualitativ hochwertige Tools – etwa Tableau, Qlik oder Power BI, wenn es um interaktive Dashboards und Visualisierungen geht. Oder SQL, um Zahlen auszuwerten. Selbst einfache Prediction-Modelle lassen sich mit Hilfe von Programmiersprachen wie Python oder R und Machine Learning erstellen. Ebenso können Wissenschaftler auf simple Statistik-Software zurückgreifen, um Patientendaten zu analysieren oder Retail-Händler auf Standard-Datenbanktechnologien, um ihren Bestand zu tracken. Diese traditionellen Tools sind oft mehr als ausreichend, um die grundlegenden Analytics-Bedürfnisse der meisten Unternehmen zu erfüllen. Chitra Sundaram ist Practice Director of Data Management bei Cleartelligence.Chitra Sundaram Schließlich sind LLMs vor allem auch ressourcenintensiv: Die großen Sprachmodelle zu trainieren und zu betreiben, verlangt enorme Rechenleistung – und sorgt für einen erheblichen CO₂-Fußabdruck. Das steht den Prinzipien einer nachhaltigen IT entgegen, die die Ressourcennutzung optimieren, Ausschuss reduzieren und Lösungen in angemessener Größe fördern will. Ein Large Language Model zu nutzen, um einen einfachen Durchschnittswert zu ermitteln, ist vor diesem Hintergrund kontraproduktiv. Man könnte auch sagen, das wäre wie mit Kanonen auf Spatzen zu schießen. Leider erlebt man genau das in der Praxis regelmäßig. Zum Beispiel bei einem Kunden aus der Luxus-Möbelbranche. Dieser war versucht, für Stimmungsanalysen seiner Kunden die neuesten KI-Technologien einzusetzen. Nach einem gründlichen Assessment haben wir ihm jedoch einen praktischeren Ansatz empfohlen: Mit Hilfe bestehender Bibliotheken für Natural Language Processing konnten wir die gewünschten Sentiment-Analysen in einer Python-Umgebung realisieren – und zwar mit einem Bruchteil der Rechenressourcen, die für KI nötig gewesen wären. So konnten wir nicht nur die Kosten, sondern parallel auch die Umweltbelastung erheblich reduzieren. Das wesentliche Problem besteht einfach darin, dass die Begeisterung für neue Technologien dazu führen kann, dass man blind wird für einfache, naheliegende und praktische Problemlösungen. Wo LLMs Sinn machen Große Sprachmodelle sind eine Überlegung wert, wenn Sie mit wirklich komplexen, unstrukturierten (oder einem Mix aus strukturierten und unstrukturierten) Daten arbeiten. Sie sind außerdem nützlich für dynamische Situationen, in denen sich Daten und Anforderungen kontinuierlich ändern. Und last but not least natürlich auch, um die User Experience zu optimieren (Stichwort natürlichsprachliche Abfragen). Hier können LLMs wirklich glänzen – und machen Sinn (insofern die Outputs auch strategisch eingesetzt werden). Ich rate meinen Kunden regelmäßig, auf einen hybriden Ansatz zu setzen: Nutzen Sie traditionelle Tools für strukturierte Daten und reservieren Sie LLMs für wirklich komplexe Aufgaben. So können Sie die Stärken beider Welten nutzen, die Effizienz maximieren und den Ressourcenverbrauch minimieren. Im Kern geht es darum, die richtige Balance zwischen Leistungsfähigkeit und Praktikabilität zu finden. Anders ausgedrückt: Nachhaltig geht Analytics, wenn das richtige Tool für die richtige Aufgabe gewählt wird – statt einfach blind einem gerade aktuellen Trend zu folgen. Vergessen Sie also bei allem „KI-Wettrüsten“ nicht, dass einfache Lösungen oft die nachhaltigsten sind. Sehen Sie davon ab, Kanonen auf Spatzen zu richten und hören Sie auf die Stimme der Vernunft: Nicht Hype sollte über Technologieentscheidungen bestimmen, sondern Business-Anforderungen und Nachhaltigkeitsaspekte. Nur so lässt sich Datenpotenzial heben, während parallel die Umweltauswirkungen minimiert werden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Nach oben scrollen
×