Eine immer größere Nachfrage nach KI-Modellen, insbesondere bei Grafik-Chatbots, bereitet ihren Herstellern zunehmend Probleme. shutterstock – Zoomik Neue generative KI-Modelle (GenAI), die in der Woche vom 24. März 2025 von Google und OpenAI eingeführt wurden, setzen die Rechenzentren beider Unternehmen unter Druck. OpenAI-CEO Sam Altman kündigte deshalb auf der Social-Media-Plattform X an, dass das Unternehmen die Nutzung von GPUs vorübergehend einschränken müsse. Grund ist, dass die Nachfrage nach dem neuen 4o-Bilderzeugungstool überwältigend sei. OpenAI, das auf Nvidia-GPUs setzt, hatte bereits in der Vergangenheit mit Überlastungen zu kämpfen. Erneute Kapazitätsengpässe Besserung ist erst einmal nicht in Sicht, wie das Unternehmen ankündigte. Bis das System effizienter wird, soll der Dienst nur eingeschränkt verfügbar sein. Zugleich ist es nicht das erste Mal, das die Macher von ChatGPT mit Kapazitätsproblemen bei neuen Modellen zu kämpfen haben. Die hohe Nachfrage nach Künstlicher Intelligenz (KI) überlaste das System, besonders die rechenintensive Bilderstellung, erklärte Analyst Bob O’Donnell von Technalysis. Zudem können Nvidia-GPUs, sobald sie überhitzen oder zu stark belastet sind, ihre Leistung drosseln, so der Experte. Mehr Anbieter, weniger Ausfallzeiten Einen Ausweg aus der Misere stellt Gennady Pekhimenko, CEO von CentML, einem kanadischen Unternehmen das KI-Dienste auf Nvidia-Grafikprozessoren anbietet, vor: OpenAI könnte die Nachfrage durch Modellverkleinerung oder Code-Optimierung besser bewältigen. Für einige Anwendungsfälle würden seiner Meinung nach kleinere oder Open-Source-Modelle ausreichen. Unternehmen könnten zudem Rechenkapazitäten von verschiedenen Anbietern beziehen, um Ausfallzeiten zu vermeiden. Derzeit gebe es keine GPU-Knappheit, die das KI-Wachstum behindere, so der Assistenzprofessor für Computerwissenschaften an der Universität von Toronto. Cleveres Marketing oder Auftakt für eigene Projekte Altmans Kommentar über „schmelzende“ GPUs könnte allerdings auch Marketing für OpenAIs neue Bilderzeugungsmodelle gewesen sein, so Pekhimenko. Große Cloud-Anbieter investieren Milliarden in Rechenzentren, während die US-Regierung 500 Milliarden Dollar für den KI-Ausbau ankündigte. Die Veröffentlichung von DeepSeek zeigt jedoch, dass Software-Optimierungen KI skalierbar machen, ohne ständig neue Hardware zu benötigen. Berichte deuten darauf hin, dass OpenAI eigene Rechenzentren plant, da Microsoft sich aus entsprechenden Projekten zurückzieht. Ratenlimits sollen Entlastung bringen Mit seinen Problemen ist das Start-Up nicht allein: Auch Google kämpft mit hoher Nachfrage nach seinem neuen KI-Modell Gemini 2.5. Produktleiter Logan Kilpatrick erklärte, dass das Unternehmen daran arbeite, höhere Ratenlimits für Entwickler bereitzustellen. Google nutzt dafür eigene Tensor Processing Units (TPUs), die speziell für Gemini optimiert sind. Die Produkte beider Unternehmen werden von Privatpersonen und Unternehmen in großem Umfang genutzt. Normalerweise dauere es aber eine Weile, bis die Hardware aufholt, um neue KI-Software effizient zu betreiben. Unbeabsichtigte Unterbrechungen können laut Analysten zudem die Produktivität von Unternehmen beeinträchtigen.
Grafik-Chatbots gehen in Flammen auf
Eine immer größere Nachfrage nach KI-Modellen, insbesondere bei Grafik-Chatbots, bereitet ihren Herstellern zunehmend Probleme. shutterstock – Zoomik Neue generative KI-Modelle (GenAI), die in der Woche vom 24. März 2025 von Google und OpenAI eingeführt wurden, setzen die Rechenzentren beider Unternehmen unter Druck. OpenAI-CEO Sam Altman kündigte deshalb auf der Social-Media-Plattform X an, dass das Unternehmen die Nutzung von GPUs vorübergehend einschränken müsse. Grund ist, dass die Nachfrage nach dem neuen 4o-Bilderzeugungstool überwältigend sei. OpenAI, das auf Nvidia-GPUs setzt, hatte bereits in der Vergangenheit mit Überlastungen zu kämpfen. Erneute Kapazitätsengpässe Besserung ist erst einmal nicht in Sicht, wie das Unternehmen ankündigte. Bis das System effizienter wird, soll der Dienst nur eingeschränkt verfügbar sein. Zugleich ist es nicht das erste Mal, das die Macher von ChatGPT mit Kapazitätsproblemen bei neuen Modellen zu kämpfen haben. Die hohe Nachfrage nach Künstlicher Intelligenz (KI) überlaste das System, besonders die rechenintensive Bilderstellung, erklärte Analyst Bob O’Donnell von Technalysis. Zudem können Nvidia-GPUs, sobald sie überhitzen oder zu stark belastet sind, ihre Leistung drosseln, so der Experte. Mehr Anbieter, weniger Ausfallzeiten Einen Ausweg aus der Misere stellt Gennady Pekhimenko, CEO von CentML, einem kanadischen Unternehmen das KI-Dienste auf Nvidia-Grafikprozessoren anbietet, vor: OpenAI könnte die Nachfrage durch Modellverkleinerung oder Code-Optimierung besser bewältigen. Für einige Anwendungsfälle würden seiner Meinung nach kleinere oder Open-Source-Modelle ausreichen. Unternehmen könnten zudem Rechenkapazitäten von verschiedenen Anbietern beziehen, um Ausfallzeiten zu vermeiden. Derzeit gebe es keine GPU-Knappheit, die das KI-Wachstum behindere, so der Assistenzprofessor für Computerwissenschaften an der Universität von Toronto. Cleveres Marketing oder Auftakt für eigene Projekte Altmans Kommentar über „schmelzende“ GPUs könnte allerdings auch Marketing für OpenAIs neue Bilderzeugungsmodelle gewesen sein, so Pekhimenko. Große Cloud-Anbieter investieren Milliarden in Rechenzentren, während die US-Regierung 500 Milliarden Dollar für den KI-Ausbau ankündigte. Die Veröffentlichung von DeepSeek zeigt jedoch, dass Software-Optimierungen KI skalierbar machen, ohne ständig neue Hardware zu benötigen. Berichte deuten darauf hin, dass OpenAI eigene Rechenzentren plant, da Microsoft sich aus entsprechenden Projekten zurückzieht. Ratenlimits sollen Entlastung bringen Mit seinen Problemen ist das Start-Up nicht allein: Auch Google kämpft mit hoher Nachfrage nach seinem neuen KI-Modell Gemini 2.5. Produktleiter Logan Kilpatrick erklärte, dass das Unternehmen daran arbeite, höhere Ratenlimits für Entwickler bereitzustellen. Google nutzt dafür eigene Tensor Processing Units (TPUs), die speziell für Gemini optimiert sind. Die Produkte beider Unternehmen werden von Privatpersonen und Unternehmen in großem Umfang genutzt. Normalerweise dauere es aber eine Weile, bis die Hardware aufholt, um neue KI-Software effizient zu betreiben. Unbeabsichtigte Unterbrechungen können laut Analysten zudem die Produktivität von Unternehmen beeinträchtigen.
Grafik-Chatbots gehen in Flammen auf Eine immer größere Nachfrage nach KI-Modellen, insbesondere bei Grafik-Chatbots, bereitet ihren Herstellern zunehmend Probleme. shutterstock – Zoomik Neue generative KI-Modelle (GenAI), die in der Woche vom 24. März 2025 von Google und OpenAI eingeführt wurden, setzen die Rechenzentren beider Unternehmen unter Druck. OpenAI-CEO Sam Altman kündigte deshalb auf der Social-Media-Plattform X an, dass das Unternehmen die Nutzung von GPUs vorübergehend einschränken müsse. Grund ist, dass die Nachfrage nach dem neuen 4o-Bilderzeugungstool überwältigend sei. OpenAI, das auf Nvidia-GPUs setzt, hatte bereits in der Vergangenheit mit Überlastungen zu kämpfen. Erneute Kapazitätsengpässe Besserung ist erst einmal nicht in Sicht, wie das Unternehmen ankündigte. Bis das System effizienter wird, soll der Dienst nur eingeschränkt verfügbar sein. Zugleich ist es nicht das erste Mal, das die Macher von ChatGPT mit Kapazitätsproblemen bei neuen Modellen zu kämpfen haben. Die hohe Nachfrage nach Künstlicher Intelligenz (KI) überlaste das System, besonders die rechenintensive Bilderstellung, erklärte Analyst Bob O’Donnell von Technalysis. Zudem können Nvidia-GPUs, sobald sie überhitzen oder zu stark belastet sind, ihre Leistung drosseln, so der Experte. Mehr Anbieter, weniger Ausfallzeiten Einen Ausweg aus der Misere stellt Gennady Pekhimenko, CEO von CentML, einem kanadischen Unternehmen das KI-Dienste auf Nvidia-Grafikprozessoren anbietet, vor: OpenAI könnte die Nachfrage durch Modellverkleinerung oder Code-Optimierung besser bewältigen. Für einige Anwendungsfälle würden seiner Meinung nach kleinere oder Open-Source-Modelle ausreichen. Unternehmen könnten zudem Rechenkapazitäten von verschiedenen Anbietern beziehen, um Ausfallzeiten zu vermeiden. Derzeit gebe es keine GPU-Knappheit, die das KI-Wachstum behindere, so der Assistenzprofessor für Computerwissenschaften an der Universität von Toronto. Cleveres Marketing oder Auftakt für eigene Projekte Altmans Kommentar über „schmelzende“ GPUs könnte allerdings auch Marketing für OpenAIs neue Bilderzeugungsmodelle gewesen sein, so Pekhimenko. Große Cloud-Anbieter investieren Milliarden in Rechenzentren, während die US-Regierung 500 Milliarden Dollar für den KI-Ausbau ankündigte. Die Veröffentlichung von DeepSeek zeigt jedoch, dass Software-Optimierungen KI skalierbar machen, ohne ständig neue Hardware zu benötigen. Berichte deuten darauf hin, dass OpenAI eigene Rechenzentren plant, da Microsoft sich aus entsprechenden Projekten zurückzieht. Ratenlimits sollen Entlastung bringen Mit seinen Problemen ist das Start-Up nicht allein: Auch Google kämpft mit hoher Nachfrage nach seinem neuen KI-Modell Gemini 2.5. Produktleiter Logan Kilpatrick erklärte, dass das Unternehmen daran arbeite, höhere Ratenlimits für Entwickler bereitzustellen. Google nutzt dafür eigene Tensor Processing Units (TPUs), die speziell für Gemini optimiert sind. Die Produkte beider Unternehmen werden von Privatpersonen und Unternehmen in großem Umfang genutzt. Normalerweise dauere es aber eine Weile, bis die Hardware aufholt, um neue KI-Software effizient zu betreiben. Unbeabsichtigte Unterbrechungen können laut Analysten zudem die Produktivität von Unternehmen beeinträchtigen.