GPUs sind dem Gaming-Bereich längst entwachsen.Nvidia Ursprünglich für Gaming-Zwecke entwickelt, sind Graphics Processing Units (GPUs; Grafikprozessoren) angesichts der rasant steigenden Anforderungen im Bereich der Datenverarbeitung auch für Unternehmen inzwischen nahezu unverzichtbar. Schließlich ermöglichen GPUs mit Hilfe dutzender, hunderter oder tausender miteinander verbundener Kerne Parallel Processing und eignen sich damit ideal für komplexe, datenintensive Workloads – wie sie beispielsweise im Bereich der (generativen) künstlichen Intelligenz (KI) anfallen. In Verbindung mit CPUs können Grafikprozessoren die Systemgeschwindigkeit und -Performance erheblich steigern und dazu beitragen, das Potenzial von „Next Generation“-Technologien voll auszuschöpfen. In diesem Grundlagenartikel lesen Sie: wie sich GPUs und CPUs unterscheiden, wie Grafikprozessoren funktionieren, in welchen Ausformungen sie auftreten, welche Business Use Cases dabei besonders relevant sind, sowie welche Anbieter im GPU-Bereich tonangebend sind. GPU “vs.” CPU Sowohl GPUs als auch CPUs sind Hardware-Komponenten von Computern und Servern. Dabei fungiert die Central Processing Unit als eine Art „Systemverwaltungsgehirn“ – vereinfacht gesagt ermöglichen CPUs, dass Computer funktionieren. CPUs enthalten in der Regel weit weniger Kerne als GPUs und verarbeiten Tasks sequenziell. Im Vergleich zu GPUs übernehmen CPUs eher allgemeine Aufgaben. Zum Beispiel: Anwendungen auszuführen, Input- und Output-Prozesse abzuarbeiten, oder Grafiken zu verarbeiten. Darüber hinaus können CPUs auch einige komplexere Aufgaben bewältigen, beispielsweise auch niedrigschwellige KI-Workloads wie Inferenz- oder Modelltraining. Wichtig ist an dieser Stelle, dass GPU und CPU nicht „gegeneinander arbeiten“. Vielmehr ergänzen sich Graphics und Central Processing Unit gegenseitig – je nachdem, welcher Chipsatz besser für die jeweilige Aufgabe geeignet ist. GPU – Funktionsweise GPUs werden auf Siliziumwafern gefertigt, die als Basis für eine Reihe kleinerer, spezialisierterer Multiprozessoren dienen. Diese sind durch Transistoren miteinander verbunden, über die sie kommunizieren, Berechnungen durchführen und mehrere Aufgaben gleichzeitig ausführen können (Parallel Processing). Dabei werden die jeweiligen Tasks in kleinere, unabhängige Schritte aufgeteilt, die über die GPU-Architektur verteilt werden. In der Regel verfügen GPUs über einen eigenen Arbeitsspeicher (RAM), der speziell darauf ausgelegt ist, große Datenmengen zu verarbeiten. Das ermöglicht, die zu verarbeitenden Daten schneller abzurufen, zu speichern und zu modifizieren. GPU-Formen Grafikprozessoren werden in der Regel in drei verschiedenen Ausformungen angeboten. Nämlich als: diskrete GPUs, integrierte GPUs oder virtuelle GPUs (vGPUs). Bei diskreten GPUs handelt es sich um separate Chips(ätze), die von der CPU des Geräts getrennt sind. In der Folge verfügen Standalone-GPUs auch über einen eigenen Speicher, der nicht mit der CPU geteilt wird – was eine verbesserte Performance sicherstellt. Diskrete GPUs sind in der Regel für spezifische Tasks mit besonderen Anforderungen ausgelegt. Ihr Nachteil ist allerdings ein höherer Energiebedarf – mehr Wärme bedeutet zusätzliche Kühlungsmaßnahmen. Integrierte GPUs machen das Gros der heute am Markt verfügbaren Grafikprozessoren aus. Diese GPUs sind mit CPUs integriert und teilen sich den Systemspeicher entsprechend mit diesen. Das ermöglicht leichtgewichtigere Systeme, die weniger (Energie-)Kosten verursachen. Virtuelle GPUs oder vGPUs sind hingegen softwarebasierte GPU-Cluster, die meistens von Cloud-Service-Anbietern angeboten werden. Diese Art der virtuellen Infrastruktur wird immer beliebter, schließlich müssen Unternehmen damit physische Hardware nicht selbst anschaffen, betreiben und warten. GPU-Anwendungsfälle Wie bereits erwähnt, ist die Graphics Processing Unit tief im Gaming-Bereich verwurzelt. Das hat sich mit der technologischen Evolution der letzten Jahre grundlegend verändert: Inzwischen sind die Grafikprozessoren nicht nur für grafikintensive Egoshooter unverzichtbar, sondern auch für eine wachsende Zahl anspruchsvoller Business Use Cases. High Performance Computing Beim High Performance Computing (HPC) werden Rechner in Clustern zusammengeführt, um als „Einheit“ komplexe Berechnungen in hoher Geschwindigkeit durchzuführen. Dieses Konzept wird im Wesentlichen durch die Parallel-Processing-Fähigkeiten von GPUs realisiert. HPC ist der „Motor“, der Supercomputer antreibt, die für die Computerwissenschaft von essenzieller Bedeutung sind. Sie kommen zum Beispiel im Quantencomputing, bei tiefgehenden Datenanalysen oder wissenschaftlichen Simulationen zum Einsatz. Machine & Deep Learning Machine Learning (ML) und Deep Learning (DL) bilden das Rückgrat der Datenwissenschaft. Damit ML- und DL-Modelle große Datensätze analysieren und menschliches Lernverhalten simulieren können, benötigen sie erhebliche Rechenleistung – die GPUs liefern können. So können Grafikprozessoren ML-Funktionen beschleunigen und zum Beispiel dazu beitragen, Daten optimal zu verarbeiten, Muster schneller zu erkennen und bessere Schlussfolgerungen zu ziehen. (Generative) KI Enorme Rechen-Power erfordern auch Large Language Models (LLMs), beziehungsweise Generative AI (GenAI). Auch in diesem Bereich haben sich GPUs zur treibenden Kraft entwickelt, in erster Linie wegen ihrer Parallel-Processing-Fähigkeiten. Insbesondere unterstützen Grafikprozessoren dabei, KI-Modelle zu trainieren, weil sie Support für komplexe Algorithmen, Data Retrieval und Feedback-Schleifen mitbringen. GPUs können so wesentlich dazu beitragen, den KI-Trainingsprozess zu beschleunigen und Modelle schneller in die Produktion zu bringen. Edge Computing & IoT Auch am Netzwerkrand steigt die Bedeutung von GPUs. Insbesondere in Bereichen wie der Cybersicherheit und dem Internet of Things (IoT), in denen möglichst geringe Latenzzeiten häufig von entscheidender Bedeutung sind. Mit GPUs als Rückgrat sind Edge- und IoT-Geräte unter anderem in der Lage, Objekte zu erkennen, Videos und Bilder in Echtzeit zu analysieren, kritische Anomalien zu identifizieren und Predictive-Maintenance-Tasks auszuführen. GPU-Anbieter Die folgenden Anbieterunternehmen sind auf dem GPU-Markt derzeit führend. Nvidia Marvell Broadcom Intel AMD Samsung Qualcomm (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
Was ist eine GPU?
GPUs sind dem Gaming-Bereich längst entwachsen.Nvidia Ursprünglich für Gaming-Zwecke entwickelt, sind Graphics Processing Units (GPUs; Grafikprozessoren) angesichts der rasant steigenden Anforderungen im Bereich der Datenverarbeitung auch für Unternehmen inzwischen nahezu unverzichtbar. Schließlich ermöglichen GPUs mit Hilfe dutzender, hunderter oder tausender miteinander verbundener Kerne Parallel Processing und eignen sich damit ideal für komplexe, datenintensive Workloads – wie sie beispielsweise im Bereich der (generativen) künstlichen Intelligenz (KI) anfallen. In Verbindung mit CPUs können Grafikprozessoren die Systemgeschwindigkeit und -Performance erheblich steigern und dazu beitragen, das Potenzial von „Next Generation“-Technologien voll auszuschöpfen. In diesem Grundlagenartikel lesen Sie: wie sich GPUs und CPUs unterscheiden, wie Grafikprozessoren funktionieren, in welchen Ausformungen sie auftreten, welche Business Use Cases dabei besonders relevant sind, sowie welche Anbieter im GPU-Bereich tonangebend sind. GPU “vs.” CPU Sowohl GPUs als auch CPUs sind Hardware-Komponenten von Computern und Servern. Dabei fungiert die Central Processing Unit als eine Art „Systemverwaltungsgehirn“ – vereinfacht gesagt ermöglichen CPUs, dass Computer funktionieren. CPUs enthalten in der Regel weit weniger Kerne als GPUs und verarbeiten Tasks sequenziell. Im Vergleich zu GPUs übernehmen CPUs eher allgemeine Aufgaben. Zum Beispiel: Anwendungen auszuführen, Input- und Output-Prozesse abzuarbeiten, oder Grafiken zu verarbeiten. Darüber hinaus können CPUs auch einige komplexere Aufgaben bewältigen, beispielsweise auch niedrigschwellige KI-Workloads wie Inferenz- oder Modelltraining. Wichtig ist an dieser Stelle, dass GPU und CPU nicht „gegeneinander arbeiten“. Vielmehr ergänzen sich Graphics und Central Processing Unit gegenseitig – je nachdem, welcher Chipsatz besser für die jeweilige Aufgabe geeignet ist. GPU – Funktionsweise GPUs werden auf Siliziumwafern gefertigt, die als Basis für eine Reihe kleinerer, spezialisierterer Multiprozessoren dienen. Diese sind durch Transistoren miteinander verbunden, über die sie kommunizieren, Berechnungen durchführen und mehrere Aufgaben gleichzeitig ausführen können (Parallel Processing). Dabei werden die jeweiligen Tasks in kleinere, unabhängige Schritte aufgeteilt, die über die GPU-Architektur verteilt werden. In der Regel verfügen GPUs über einen eigenen Arbeitsspeicher (RAM), der speziell darauf ausgelegt ist, große Datenmengen zu verarbeiten. Das ermöglicht, die zu verarbeitenden Daten schneller abzurufen, zu speichern und zu modifizieren. GPU-Formen Grafikprozessoren werden in der Regel in drei verschiedenen Ausformungen angeboten. Nämlich als: diskrete GPUs, integrierte GPUs oder virtuelle GPUs (vGPUs). Bei diskreten GPUs handelt es sich um separate Chips(ätze), die von der CPU des Geräts getrennt sind. In der Folge verfügen Standalone-GPUs auch über einen eigenen Speicher, der nicht mit der CPU geteilt wird – was eine verbesserte Performance sicherstellt. Diskrete GPUs sind in der Regel für spezifische Tasks mit besonderen Anforderungen ausgelegt. Ihr Nachteil ist allerdings ein höherer Energiebedarf – mehr Wärme bedeutet zusätzliche Kühlungsmaßnahmen. Integrierte GPUs machen das Gros der heute am Markt verfügbaren Grafikprozessoren aus. Diese GPUs sind mit CPUs integriert und teilen sich den Systemspeicher entsprechend mit diesen. Das ermöglicht leichtgewichtigere Systeme, die weniger (Energie-)Kosten verursachen. Virtuelle GPUs oder vGPUs sind hingegen softwarebasierte GPU-Cluster, die meistens von Cloud-Service-Anbietern angeboten werden. Diese Art der virtuellen Infrastruktur wird immer beliebter, schließlich müssen Unternehmen damit physische Hardware nicht selbst anschaffen, betreiben und warten. GPU-Anwendungsfälle Wie bereits erwähnt, ist die Graphics Processing Unit tief im Gaming-Bereich verwurzelt. Das hat sich mit der technologischen Evolution der letzten Jahre grundlegend verändert: Inzwischen sind die Grafikprozessoren nicht nur für grafikintensive Egoshooter unverzichtbar, sondern auch für eine wachsende Zahl anspruchsvoller Business Use Cases. High Performance Computing Beim High Performance Computing (HPC) werden Rechner in Clustern zusammengeführt, um als „Einheit“ komplexe Berechnungen in hoher Geschwindigkeit durchzuführen. Dieses Konzept wird im Wesentlichen durch die Parallel-Processing-Fähigkeiten von GPUs realisiert. HPC ist der „Motor“, der Supercomputer antreibt, die für die Computerwissenschaft von essenzieller Bedeutung sind. Sie kommen zum Beispiel im Quantencomputing, bei tiefgehenden Datenanalysen oder wissenschaftlichen Simulationen zum Einsatz. Machine & Deep Learning Machine Learning (ML) und Deep Learning (DL) bilden das Rückgrat der Datenwissenschaft. Damit ML- und DL-Modelle große Datensätze analysieren und menschliches Lernverhalten simulieren können, benötigen sie erhebliche Rechenleistung – die GPUs liefern können. So können Grafikprozessoren ML-Funktionen beschleunigen und zum Beispiel dazu beitragen, Daten optimal zu verarbeiten, Muster schneller zu erkennen und bessere Schlussfolgerungen zu ziehen. (Generative) KI Enorme Rechen-Power erfordern auch Large Language Models (LLMs), beziehungsweise Generative AI (GenAI). Auch in diesem Bereich haben sich GPUs zur treibenden Kraft entwickelt, in erster Linie wegen ihrer Parallel-Processing-Fähigkeiten. Insbesondere unterstützen Grafikprozessoren dabei, KI-Modelle zu trainieren, weil sie Support für komplexe Algorithmen, Data Retrieval und Feedback-Schleifen mitbringen. GPUs können so wesentlich dazu beitragen, den KI-Trainingsprozess zu beschleunigen und Modelle schneller in die Produktion zu bringen. Edge Computing & IoT Auch am Netzwerkrand steigt die Bedeutung von GPUs. Insbesondere in Bereichen wie der Cybersicherheit und dem Internet of Things (IoT), in denen möglichst geringe Latenzzeiten häufig von entscheidender Bedeutung sind. Mit GPUs als Rückgrat sind Edge- und IoT-Geräte unter anderem in der Lage, Objekte zu erkennen, Videos und Bilder in Echtzeit zu analysieren, kritische Anomalien zu identifizieren und Predictive-Maintenance-Tasks auszuführen. GPU-Anbieter Die folgenden Anbieterunternehmen sind auf dem GPU-Markt derzeit führend. Nvidia Marvell Broadcom Intel AMD Samsung Qualcomm (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
Was ist eine GPU? GPUs sind dem Gaming-Bereich längst entwachsen.Nvidia Ursprünglich für Gaming-Zwecke entwickelt, sind Graphics Processing Units (GPUs; Grafikprozessoren) angesichts der rasant steigenden Anforderungen im Bereich der Datenverarbeitung auch für Unternehmen inzwischen nahezu unverzichtbar. Schließlich ermöglichen GPUs mit Hilfe dutzender, hunderter oder tausender miteinander verbundener Kerne Parallel Processing und eignen sich damit ideal für komplexe, datenintensive Workloads – wie sie beispielsweise im Bereich der (generativen) künstlichen Intelligenz (KI) anfallen. In Verbindung mit CPUs können Grafikprozessoren die Systemgeschwindigkeit und -Performance erheblich steigern und dazu beitragen, das Potenzial von „Next Generation“-Technologien voll auszuschöpfen. In diesem Grundlagenartikel lesen Sie: wie sich GPUs und CPUs unterscheiden, wie Grafikprozessoren funktionieren, in welchen Ausformungen sie auftreten, welche Business Use Cases dabei besonders relevant sind, sowie welche Anbieter im GPU-Bereich tonangebend sind. GPU “vs.” CPU Sowohl GPUs als auch CPUs sind Hardware-Komponenten von Computern und Servern. Dabei fungiert die Central Processing Unit als eine Art „Systemverwaltungsgehirn“ – vereinfacht gesagt ermöglichen CPUs, dass Computer funktionieren. CPUs enthalten in der Regel weit weniger Kerne als GPUs und verarbeiten Tasks sequenziell. Im Vergleich zu GPUs übernehmen CPUs eher allgemeine Aufgaben. Zum Beispiel: Anwendungen auszuführen, Input- und Output-Prozesse abzuarbeiten, oder Grafiken zu verarbeiten. Darüber hinaus können CPUs auch einige komplexere Aufgaben bewältigen, beispielsweise auch niedrigschwellige KI-Workloads wie Inferenz- oder Modelltraining. Wichtig ist an dieser Stelle, dass GPU und CPU nicht „gegeneinander arbeiten“. Vielmehr ergänzen sich Graphics und Central Processing Unit gegenseitig – je nachdem, welcher Chipsatz besser für die jeweilige Aufgabe geeignet ist. GPU – Funktionsweise GPUs werden auf Siliziumwafern gefertigt, die als Basis für eine Reihe kleinerer, spezialisierterer Multiprozessoren dienen. Diese sind durch Transistoren miteinander verbunden, über die sie kommunizieren, Berechnungen durchführen und mehrere Aufgaben gleichzeitig ausführen können (Parallel Processing). Dabei werden die jeweiligen Tasks in kleinere, unabhängige Schritte aufgeteilt, die über die GPU-Architektur verteilt werden. In der Regel verfügen GPUs über einen eigenen Arbeitsspeicher (RAM), der speziell darauf ausgelegt ist, große Datenmengen zu verarbeiten. Das ermöglicht, die zu verarbeitenden Daten schneller abzurufen, zu speichern und zu modifizieren. GPU-Formen Grafikprozessoren werden in der Regel in drei verschiedenen Ausformungen angeboten. Nämlich als: diskrete GPUs, integrierte GPUs oder virtuelle GPUs (vGPUs). Bei diskreten GPUs handelt es sich um separate Chips(ätze), die von der CPU des Geräts getrennt sind. In der Folge verfügen Standalone-GPUs auch über einen eigenen Speicher, der nicht mit der CPU geteilt wird – was eine verbesserte Performance sicherstellt. Diskrete GPUs sind in der Regel für spezifische Tasks mit besonderen Anforderungen ausgelegt. Ihr Nachteil ist allerdings ein höherer Energiebedarf – mehr Wärme bedeutet zusätzliche Kühlungsmaßnahmen. Integrierte GPUs machen das Gros der heute am Markt verfügbaren Grafikprozessoren aus. Diese GPUs sind mit CPUs integriert und teilen sich den Systemspeicher entsprechend mit diesen. Das ermöglicht leichtgewichtigere Systeme, die weniger (Energie-)Kosten verursachen. Virtuelle GPUs oder vGPUs sind hingegen softwarebasierte GPU-Cluster, die meistens von Cloud-Service-Anbietern angeboten werden. Diese Art der virtuellen Infrastruktur wird immer beliebter, schließlich müssen Unternehmen damit physische Hardware nicht selbst anschaffen, betreiben und warten. GPU-Anwendungsfälle Wie bereits erwähnt, ist die Graphics Processing Unit tief im Gaming-Bereich verwurzelt. Das hat sich mit der technologischen Evolution der letzten Jahre grundlegend verändert: Inzwischen sind die Grafikprozessoren nicht nur für grafikintensive Egoshooter unverzichtbar, sondern auch für eine wachsende Zahl anspruchsvoller Business Use Cases. High Performance Computing Beim High Performance Computing (HPC) werden Rechner in Clustern zusammengeführt, um als „Einheit“ komplexe Berechnungen in hoher Geschwindigkeit durchzuführen. Dieses Konzept wird im Wesentlichen durch die Parallel-Processing-Fähigkeiten von GPUs realisiert. HPC ist der „Motor“, der Supercomputer antreibt, die für die Computerwissenschaft von essenzieller Bedeutung sind. Sie kommen zum Beispiel im Quantencomputing, bei tiefgehenden Datenanalysen oder wissenschaftlichen Simulationen zum Einsatz. Machine & Deep Learning Machine Learning (ML) und Deep Learning (DL) bilden das Rückgrat der Datenwissenschaft. Damit ML- und DL-Modelle große Datensätze analysieren und menschliches Lernverhalten simulieren können, benötigen sie erhebliche Rechenleistung – die GPUs liefern können. So können Grafikprozessoren ML-Funktionen beschleunigen und zum Beispiel dazu beitragen, Daten optimal zu verarbeiten, Muster schneller zu erkennen und bessere Schlussfolgerungen zu ziehen. (Generative) KI Enorme Rechen-Power erfordern auch Large Language Models (LLMs), beziehungsweise Generative AI (GenAI). Auch in diesem Bereich haben sich GPUs zur treibenden Kraft entwickelt, in erster Linie wegen ihrer Parallel-Processing-Fähigkeiten. Insbesondere unterstützen Grafikprozessoren dabei, KI-Modelle zu trainieren, weil sie Support für komplexe Algorithmen, Data Retrieval und Feedback-Schleifen mitbringen. GPUs können so wesentlich dazu beitragen, den KI-Trainingsprozess zu beschleunigen und Modelle schneller in die Produktion zu bringen. Edge Computing & IoT Auch am Netzwerkrand steigt die Bedeutung von GPUs. Insbesondere in Bereichen wie der Cybersicherheit und dem Internet of Things (IoT), in denen möglichst geringe Latenzzeiten häufig von entscheidender Bedeutung sind. Mit GPUs als Rückgrat sind Edge- und IoT-Geräte unter anderem in der Lage, Objekte zu erkennen, Videos und Bilder in Echtzeit zu analysieren, kritische Anomalien zu identifizieren und Predictive-Maintenance-Tasks auszuführen. GPU-Anbieter Die folgenden Anbieterunternehmen sind auf dem GPU-Markt derzeit führend. Nvidia Marvell Broadcom Intel AMD Samsung Qualcomm (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!