Computerhaus Quickborn

Confidential Computing wird zum Zünglein an der Waage​

Mit (semi)autonomen KI-Agenten wächst das Interesse an Confidential-Computing-Lösungen. Shutterstock/Gorodenkoff Unternehmen dürfen Datensicherheit nicht länger ignorieren, da KI-Agenten zunehmend den internen Datenfluss in IT-Umgebungen übernehmen – fordern Analysten und IT-Führungskräfte. „Die Regulierung von KI-Anwendungsfällen – beispielsweise im Gesundheitswesen und im Finanzdienstleistungssektor, die bereits einer umfassenden behördlichen Aufsicht und Compliance-Überwachung unterliegen – erfordert die Überprüfbarkeit der spezifischen KI-Modelle oder der eingesetzten agentenbasierten Software“, erklärt Richard Searle, Chief AI Officer beim Security-Anbieter Fortanix. Angesichts dieser Anforderungen setzen einige führende Technologieunternehmen auf das Konzept des „Confidential Computing“, eine Technologie, die es zwar schon seit Jahren gibt, die aber mit dem Aufkommen der generativen KI (GenAI) neuen Auftrieb erhält. Schutz von Daten und Sprachmodell Confidential Computing schafft eine Hardware-geschützte Ausführungsumgebung, in der KI-Modelle und Daten „eingeschlossen“ werden. Informationen werden nur an diejenigen Modelle oder Agenten weitergegeben, die über die entsprechenden Zugriffsrechte verfügen – ein Schutz gegen unbefugte Datennutzung. Für Unternehmen, die sich um KI-Sicherheit sorgten, könne die Einführung von Confidential Computing viele dieser Bedenken entschärfen, erklärt Craig Matsumoto, Analyst bei Futuriom: „Das passt sehr gut zum Interesse vieler Unternehmen für KI in privaten Clouds. Sie wollen die Kontrolle behalten.“ Das haben auch die Anbieter erkannt. So gestattet Google Unternehmen nun erstmals, seine proprietären Gemini-Modelle lokal zu betreiben – also außerhalb der eigenen Cloud-Infrastruktur und ohne Internetverbindung. Möglich wird das unter anderem durch Confidential-Computing-Technologie auf Nvidia-GPUs. Damit kann Google sein KI-Modell auch auf unsicheren (also nicht von Google kontrollierten) Hardware-Umgebungen betreiben. Eigentlich ist Gemini für Googles eigene Tensor Processing Units (TPU) konzipiert, die nur in der Google Cloud verfügbar sind. In diesem Fall kann das exportierte Modell jedoch in einer vertraulichen virtuellen Maschine auf der GPU von Nvidia ausgeführt werden. „Die GPU von Nvidia schützt dabei sowohl das geistige Eigentum von Google Gemini als auch die Unternehmens-IP, die in den Modellen verwendet wird“, so Justin Boitano, Vice President für Enterprise-AI-Produkte bei Nvidia. Eine spezielle Technologie bestätige, dass ein Nutzer autorisiert und berechtigt ist, Informationen zu empfangen oder auf das Modell zuzugreifen. „Das Interesse an dieser Technologie wächst, insbesondere für Anwendungen, die lokale Daten und lokale Entscheidungen mit geringer Latenz erfordern“, so Sachin Gupta, Vice President für Infrastruktur und Lösungen bei Google. Eine Kombination aus Latenz und Datenresidenz-Compliance treibe diese Art von Anwendungsfällen voran. GPUs kombinierten hohe Rechenleistung mit starker Sicherheit, was sie ideal für regulierte Branchen wie das Gesundheitswesen, den Finanzsektor oder die öffentliche Verwaltung mache, erklärt Steven Dickens, Principal Analyst bei Hyperframe Research: „Vorschriften wie HIPAA und DSGVO einzuhalten, ist unerlässlich.“ WhatsApp-Daten vor Meta schützen Ein weiteres Beispiel für den Einsatz von Confidential Computing betrifft WhatsApp. Die Meta-Tochter hat unlängst GenAI-Tools eingeführt, die schnelle Zusammenfassungen neuer Nachrichten eines Nutzers erzeugen können. Diese Zusammenfassungen sind privat und weder für Meta noch für Dritte einsehbar. Das Feature markiert den ersten Einsatz von Confidential Computing bei Meta – das Unternehmen nennt es allerdings „Private Processing“ – zum Schutz von Nutzerdaten. Der Konzern, der seit Jahrzehnten mit Datenschutzproblemen kämpft, will diese Technologie nun gezielt einsetzen, um verlorenes Vertrauen zurückzugewinnen. Zu diesem Zweck hat Meta im Wesentlichen eine private Computing-Umgebung mit AMD- und Nvidia-GPUs aufgebaut. Private WhatsApp-Daten werden darin verarbeitet, die Zusammenfassungen erzeugt – ohne, dass Meta oder andere darauf Zugriff haben. Das Private-Computing-Modell minimiert dabei das Risiko, dass Daten beim Transfer von WhatsApp in die Cloud abgefangen werden.  „Wir gehen davon aus, dass es weitere Fälle geben wird, in denen dieselbe oder eine ähnliche Infrastruktur für die Verarbeitung von Benutzeranfragen von Vorteil sein könnte,”, schreibt Meta in einem Blogbeitrag. Anthropic wiederum kündigte im vergangenen Monat eine Funktion namens „Confidential Inference“ an. Diese bietet Sicherheitsgarantien für Kunden, die seine Claude-GenAI-Technologie nutzen. Das Feature generiert dazu eine Zertifizierungskette (Chain of Trust), während Daten die KI-Kette durchlaufen, und berücksichtigt dabei auch KI-Agenten, die zunehmend als Vermittler in Inferencing-Prozessen agieren. Apples Beitrag zum Thema Confidential Computing wiederum ist das bereits umfänglich beschriebene Private-Cloud-Compute-Ökosystem des Unternehmens. Trotz der zunehmenden Verbreitung von Confidential Computing gibt es weiterhin Bedenken hinsichtlich eines Einsatzes in Cloud-Umgebungen, in denen CPUs die Authentifizierung auf Systemebene überprüfen und GPUs Daten authentifizieren. Ein zentrales Problem: Daten gelangen nur über die CPU zur GPU – und jede Schwachstelle in diesem Prozess könnte eine riesige Angriffsfläche für Hacker bieten, um Daten zu stehlen. „In einer solchen Umgebung wird die Zuverlässigkeit von Confidential Computing und Authentifizierung sehr fragil“, erklärt Alex Matrosov, Sicherheitsexperte und CEO von Binarly. „CPU-basierte Technologien sind außerdem anfällig für sogenannte Side-Channel-Angriffe, was ihre Zuverlässigkeit infrage stellt“, ergänzt Steven Dickens von Hyperframe. So hatte Google erst im Dezember vergangenen Jahres eine Sicherheitslücke offengelegt, die AMD Confidential Computing betraf und die den Einsatz von Microcode-Updates erforderlich machte. (mb) 

Confidential Computing wird zum Zünglein an der Waage​ Mit (semi)autonomen KI-Agenten wächst das Interesse an Confidential-Computing-Lösungen. Shutterstock/Gorodenkoff Unternehmen dürfen Datensicherheit nicht länger ignorieren, da KI-Agenten zunehmend den internen Datenfluss in IT-Umgebungen übernehmen – fordern Analysten und IT-Führungskräfte. „Die Regulierung von KI-Anwendungsfällen – beispielsweise im Gesundheitswesen und im Finanzdienstleistungssektor, die bereits einer umfassenden behördlichen Aufsicht und Compliance-Überwachung unterliegen – erfordert die Überprüfbarkeit der spezifischen KI-Modelle oder der eingesetzten agentenbasierten Software“, erklärt Richard Searle, Chief AI Officer beim Security-Anbieter Fortanix. Angesichts dieser Anforderungen setzen einige führende Technologieunternehmen auf das Konzept des „Confidential Computing“, eine Technologie, die es zwar schon seit Jahren gibt, die aber mit dem Aufkommen der generativen KI (GenAI) neuen Auftrieb erhält. Schutz von Daten und Sprachmodell Confidential Computing schafft eine Hardware-geschützte Ausführungsumgebung, in der KI-Modelle und Daten „eingeschlossen“ werden. Informationen werden nur an diejenigen Modelle oder Agenten weitergegeben, die über die entsprechenden Zugriffsrechte verfügen – ein Schutz gegen unbefugte Datennutzung. Für Unternehmen, die sich um KI-Sicherheit sorgten, könne die Einführung von Confidential Computing viele dieser Bedenken entschärfen, erklärt Craig Matsumoto, Analyst bei Futuriom: „Das passt sehr gut zum Interesse vieler Unternehmen für KI in privaten Clouds. Sie wollen die Kontrolle behalten.“ Das haben auch die Anbieter erkannt. So gestattet Google Unternehmen nun erstmals, seine proprietären Gemini-Modelle lokal zu betreiben – also außerhalb der eigenen Cloud-Infrastruktur und ohne Internetverbindung. Möglich wird das unter anderem durch Confidential-Computing-Technologie auf Nvidia-GPUs. Damit kann Google sein KI-Modell auch auf unsicheren (also nicht von Google kontrollierten) Hardware-Umgebungen betreiben. Eigentlich ist Gemini für Googles eigene Tensor Processing Units (TPU) konzipiert, die nur in der Google Cloud verfügbar sind. In diesem Fall kann das exportierte Modell jedoch in einer vertraulichen virtuellen Maschine auf der GPU von Nvidia ausgeführt werden. „Die GPU von Nvidia schützt dabei sowohl das geistige Eigentum von Google Gemini als auch die Unternehmens-IP, die in den Modellen verwendet wird“, so Justin Boitano, Vice President für Enterprise-AI-Produkte bei Nvidia. Eine spezielle Technologie bestätige, dass ein Nutzer autorisiert und berechtigt ist, Informationen zu empfangen oder auf das Modell zuzugreifen. „Das Interesse an dieser Technologie wächst, insbesondere für Anwendungen, die lokale Daten und lokale Entscheidungen mit geringer Latenz erfordern“, so Sachin Gupta, Vice President für Infrastruktur und Lösungen bei Google. Eine Kombination aus Latenz und Datenresidenz-Compliance treibe diese Art von Anwendungsfällen voran. GPUs kombinierten hohe Rechenleistung mit starker Sicherheit, was sie ideal für regulierte Branchen wie das Gesundheitswesen, den Finanzsektor oder die öffentliche Verwaltung mache, erklärt Steven Dickens, Principal Analyst bei Hyperframe Research: „Vorschriften wie HIPAA und DSGVO einzuhalten, ist unerlässlich.“ WhatsApp-Daten vor Meta schützen Ein weiteres Beispiel für den Einsatz von Confidential Computing betrifft WhatsApp. Die Meta-Tochter hat unlängst GenAI-Tools eingeführt, die schnelle Zusammenfassungen neuer Nachrichten eines Nutzers erzeugen können. Diese Zusammenfassungen sind privat und weder für Meta noch für Dritte einsehbar. Das Feature markiert den ersten Einsatz von Confidential Computing bei Meta – das Unternehmen nennt es allerdings „Private Processing“ – zum Schutz von Nutzerdaten. Der Konzern, der seit Jahrzehnten mit Datenschutzproblemen kämpft, will diese Technologie nun gezielt einsetzen, um verlorenes Vertrauen zurückzugewinnen. Zu diesem Zweck hat Meta im Wesentlichen eine private Computing-Umgebung mit AMD- und Nvidia-GPUs aufgebaut. Private WhatsApp-Daten werden darin verarbeitet, die Zusammenfassungen erzeugt – ohne, dass Meta oder andere darauf Zugriff haben. Das Private-Computing-Modell minimiert dabei das Risiko, dass Daten beim Transfer von WhatsApp in die Cloud abgefangen werden.  „Wir gehen davon aus, dass es weitere Fälle geben wird, in denen dieselbe oder eine ähnliche Infrastruktur für die Verarbeitung von Benutzeranfragen von Vorteil sein könnte,”, schreibt Meta in einem Blogbeitrag. Anthropic wiederum kündigte im vergangenen Monat eine Funktion namens „Confidential Inference“ an. Diese bietet Sicherheitsgarantien für Kunden, die seine Claude-GenAI-Technologie nutzen. Das Feature generiert dazu eine Zertifizierungskette (Chain of Trust), während Daten die KI-Kette durchlaufen, und berücksichtigt dabei auch KI-Agenten, die zunehmend als Vermittler in Inferencing-Prozessen agieren. Apples Beitrag zum Thema Confidential Computing wiederum ist das bereits umfänglich beschriebene Private-Cloud-Compute-Ökosystem des Unternehmens. Trotz der zunehmenden Verbreitung von Confidential Computing gibt es weiterhin Bedenken hinsichtlich eines Einsatzes in Cloud-Umgebungen, in denen CPUs die Authentifizierung auf Systemebene überprüfen und GPUs Daten authentifizieren. Ein zentrales Problem: Daten gelangen nur über die CPU zur GPU – und jede Schwachstelle in diesem Prozess könnte eine riesige Angriffsfläche für Hacker bieten, um Daten zu stehlen. „In einer solchen Umgebung wird die Zuverlässigkeit von Confidential Computing und Authentifizierung sehr fragil“, erklärt Alex Matrosov, Sicherheitsexperte und CEO von Binarly. „CPU-basierte Technologien sind außerdem anfällig für sogenannte Side-Channel-Angriffe, was ihre Zuverlässigkeit infrage stellt“, ergänzt Steven Dickens von Hyperframe. So hatte Google erst im Dezember vergangenen Jahres eine Sicherheitslücke offengelegt, die AMD Confidential Computing betraf und die den Einsatz von Microcode-Updates erforderlich machte. (mb)

Mit (semi)autonomen KI-Agenten wächst das Interesse an Confidential-Computing-Lösungen. Shutterstock/Gorodenkoff Unternehmen dürfen Datensicherheit nicht länger ignorieren, da KI-Agenten zunehmend den internen Datenfluss in IT-Umgebungen übernehmen – fordern Analysten und IT-Führungskräfte. „Die Regulierung von KI-Anwendungsfällen – beispielsweise im Gesundheitswesen und im Finanzdienstleistungssektor, die bereits einer umfassenden behördlichen Aufsicht und Compliance-Überwachung unterliegen – erfordert die Überprüfbarkeit der spezifischen KI-Modelle oder der eingesetzten agentenbasierten Software“, erklärt Richard Searle, Chief AI Officer beim Security-Anbieter Fortanix. Angesichts dieser Anforderungen setzen einige führende Technologieunternehmen auf das Konzept des „Confidential Computing“, eine Technologie, die es zwar schon seit Jahren gibt, die aber mit dem Aufkommen der generativen KI (GenAI) neuen Auftrieb erhält. Schutz von Daten und Sprachmodell Confidential Computing schafft eine Hardware-geschützte Ausführungsumgebung, in der KI-Modelle und Daten „eingeschlossen“ werden. Informationen werden nur an diejenigen Modelle oder Agenten weitergegeben, die über die entsprechenden Zugriffsrechte verfügen – ein Schutz gegen unbefugte Datennutzung. Für Unternehmen, die sich um KI-Sicherheit sorgten, könne die Einführung von Confidential Computing viele dieser Bedenken entschärfen, erklärt Craig Matsumoto, Analyst bei Futuriom: „Das passt sehr gut zum Interesse vieler Unternehmen für KI in privaten Clouds. Sie wollen die Kontrolle behalten.“ Das haben auch die Anbieter erkannt. So gestattet Google Unternehmen nun erstmals, seine proprietären Gemini-Modelle lokal zu betreiben – also außerhalb der eigenen Cloud-Infrastruktur und ohne Internetverbindung. Möglich wird das unter anderem durch Confidential-Computing-Technologie auf Nvidia-GPUs. Damit kann Google sein KI-Modell auch auf unsicheren (also nicht von Google kontrollierten) Hardware-Umgebungen betreiben. Eigentlich ist Gemini für Googles eigene Tensor Processing Units (TPU) konzipiert, die nur in der Google Cloud verfügbar sind. In diesem Fall kann das exportierte Modell jedoch in einer vertraulichen virtuellen Maschine auf der GPU von Nvidia ausgeführt werden. „Die GPU von Nvidia schützt dabei sowohl das geistige Eigentum von Google Gemini als auch die Unternehmens-IP, die in den Modellen verwendet wird“, so Justin Boitano, Vice President für Enterprise-AI-Produkte bei Nvidia. Eine spezielle Technologie bestätige, dass ein Nutzer autorisiert und berechtigt ist, Informationen zu empfangen oder auf das Modell zuzugreifen. „Das Interesse an dieser Technologie wächst, insbesondere für Anwendungen, die lokale Daten und lokale Entscheidungen mit geringer Latenz erfordern“, so Sachin Gupta, Vice President für Infrastruktur und Lösungen bei Google. Eine Kombination aus Latenz und Datenresidenz-Compliance treibe diese Art von Anwendungsfällen voran. GPUs kombinierten hohe Rechenleistung mit starker Sicherheit, was sie ideal für regulierte Branchen wie das Gesundheitswesen, den Finanzsektor oder die öffentliche Verwaltung mache, erklärt Steven Dickens, Principal Analyst bei Hyperframe Research: „Vorschriften wie HIPAA und DSGVO einzuhalten, ist unerlässlich.“ WhatsApp-Daten vor Meta schützen Ein weiteres Beispiel für den Einsatz von Confidential Computing betrifft WhatsApp. Die Meta-Tochter hat unlängst GenAI-Tools eingeführt, die schnelle Zusammenfassungen neuer Nachrichten eines Nutzers erzeugen können. Diese Zusammenfassungen sind privat und weder für Meta noch für Dritte einsehbar. Das Feature markiert den ersten Einsatz von Confidential Computing bei Meta – das Unternehmen nennt es allerdings „Private Processing“ – zum Schutz von Nutzerdaten. Der Konzern, der seit Jahrzehnten mit Datenschutzproblemen kämpft, will diese Technologie nun gezielt einsetzen, um verlorenes Vertrauen zurückzugewinnen. Zu diesem Zweck hat Meta im Wesentlichen eine private Computing-Umgebung mit AMD- und Nvidia-GPUs aufgebaut. Private WhatsApp-Daten werden darin verarbeitet, die Zusammenfassungen erzeugt – ohne, dass Meta oder andere darauf Zugriff haben. Das Private-Computing-Modell minimiert dabei das Risiko, dass Daten beim Transfer von WhatsApp in die Cloud abgefangen werden.  „Wir gehen davon aus, dass es weitere Fälle geben wird, in denen dieselbe oder eine ähnliche Infrastruktur für die Verarbeitung von Benutzeranfragen von Vorteil sein könnte,”, schreibt Meta in einem Blogbeitrag. Anthropic wiederum kündigte im vergangenen Monat eine Funktion namens „Confidential Inference“ an. Diese bietet Sicherheitsgarantien für Kunden, die seine Claude-GenAI-Technologie nutzen. Das Feature generiert dazu eine Zertifizierungskette (Chain of Trust), während Daten die KI-Kette durchlaufen, und berücksichtigt dabei auch KI-Agenten, die zunehmend als Vermittler in Inferencing-Prozessen agieren. Apples Beitrag zum Thema Confidential Computing wiederum ist das bereits umfänglich beschriebene Private-Cloud-Compute-Ökosystem des Unternehmens. Trotz der zunehmenden Verbreitung von Confidential Computing gibt es weiterhin Bedenken hinsichtlich eines Einsatzes in Cloud-Umgebungen, in denen CPUs die Authentifizierung auf Systemebene überprüfen und GPUs Daten authentifizieren. Ein zentrales Problem: Daten gelangen nur über die CPU zur GPU – und jede Schwachstelle in diesem Prozess könnte eine riesige Angriffsfläche für Hacker bieten, um Daten zu stehlen. „In einer solchen Umgebung wird die Zuverlässigkeit von Confidential Computing und Authentifizierung sehr fragil“, erklärt Alex Matrosov, Sicherheitsexperte und CEO von Binarly. „CPU-basierte Technologien sind außerdem anfällig für sogenannte Side-Channel-Angriffe, was ihre Zuverlässigkeit infrage stellt“, ergänzt Steven Dickens von Hyperframe. So hatte Google erst im Dezember vergangenen Jahres eine Sicherheitslücke offengelegt, die AMD Confidential Computing betraf und die den Einsatz von Microcode-Updates erforderlich machte. (mb) 

Nach oben scrollen
×