Computerhaus Quickborn

Ranking exponiert LLM-Datenkraken​

Eine aktuelle Studie beleuchtet, welche Generative-AI-Tools und -Plattformen besonders invasive Datenpraktiken an den Tag legen.Cagkan Sayin | shutterstock.com Der auf Datenschutz spezialisierte IT-Dienstleister Incogni hat in einer aktuellen Untersuchung neun Large Language Models (LLMs) verschiedener Anbieter hinsichtlich ihres Datenschutzniveaus unter die Lupe genommen – und beunruhigende Erkenntnisse zu Tage gefördert. Dabei hat die Research-Abteilung von Incogni anhand unterschiedlicher Bewertungskriterien (mit diversen Subkategorien) untersucht, in welchem Umfang die Anbieter User-Daten nutzen, um ihre Modelle zu trainieren, wie transparent sie mit ihren Datenpraktiken umgehen, und in welchem Umfang die gesammelten Daten an Dritte fließen.   Diese KI-Plattformen sind besonders invasiv Die wichtigsten, respektive alarmierendsten Ergebnisse der Incogni-Untersuchung im Überblick: Le Chat von Mistral AI ist demnach die Datenschutz-freundlichste Plattform, dicht gefolgt von ChatGPT und Grok. Am anderen Ende des Rankings finden sich hingegen die LLM-Plattformen der Tech-Riesen Microsoft, Google und Meta. Bei Gemini, DeepSeek, Pi AI und Meta AI können die Benutzer offenbar nicht verhindern, dass ihre Prompts zum Modelltraining verwendet werden. ChatGPT ist in Sachen Transparenz Spitzenreiter. Bei Grok (xAI) können Fotos, die von Nutzern bereitgestellt werden, potenziell an Dritte weitergegeben werden. Ranking-Schlusslicht Meta gibt Namen, E-Mail-Adressen und Telefonnummern an Dritte weiter, darunter etwa Research-Partner. Seine Erkenntnisse hat Incogni (unter anderem) auch in einem Privacy-Gesamt-Ranking für das Jahr 2025 visualisiert: Laut Justin St-Maurice, technischer Berater bei der Info-Tech Research Group, ist es aus Unternehmensperspektive von entscheidender Bedeutung, die Belegschaft darin zu schulen, welche Daten nicht in KI-Tools einfließen dürften: “Betrachten Sie die Plattformen als öffentlich. Diese Systeme mit personenbezogenen oder sensiblen Unternehmensdaten zu füttern, ist, wie als würden Sie diese in einem Blog veröffentlichen.” Mit Blick auf die Incogni-Erkenntnisse rät der Research-Experte Unternehmen, mit Bedacht zu evaluieren: “Wenn Sie Bedenken haben, dass Meta oder Google Ihre Daten weitergeben, sollten Sie Ihre Plattformwahl ganz generell überdenken. Es geht hier weniger darum, wie die LLMs Ihre Daten verarbeiten, sondern eher darum, wie die großen Tech-Konzerne im Allgemeinen mit den Daten ihrer Nutzer umgehen.” Unternehmensanwendern, die sichergehen möchten, keinerlei Daten an GenAI-Plattformen weiterzugeben, empfiehlt der Experte, auf lokal gehostete Modelle zu setzen: “Sie brauchen weder OpenAI noch Google, um den Wert von LLMs zu erschließen. Mit eigenen KI-Modellen vermeiden Sie das Risiko vollständig, dass Ihre Daten an Dritte weitergegeben werden.” Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Ranking exponiert LLM-Datenkraken​ Eine aktuelle Studie beleuchtet, welche Generative-AI-Tools und -Plattformen besonders invasive Datenpraktiken an den Tag legen.Cagkan Sayin | shutterstock.com Der auf Datenschutz spezialisierte IT-Dienstleister Incogni hat in einer aktuellen Untersuchung neun Large Language Models (LLMs) verschiedener Anbieter hinsichtlich ihres Datenschutzniveaus unter die Lupe genommen – und beunruhigende Erkenntnisse zu Tage gefördert. Dabei hat die Research-Abteilung von Incogni anhand unterschiedlicher Bewertungskriterien (mit diversen Subkategorien) untersucht, in welchem Umfang die Anbieter User-Daten nutzen, um ihre Modelle zu trainieren, wie transparent sie mit ihren Datenpraktiken umgehen, und in welchem Umfang die gesammelten Daten an Dritte fließen.   Diese KI-Plattformen sind besonders invasiv Die wichtigsten, respektive alarmierendsten Ergebnisse der Incogni-Untersuchung im Überblick: Le Chat von Mistral AI ist demnach die Datenschutz-freundlichste Plattform, dicht gefolgt von ChatGPT und Grok. Am anderen Ende des Rankings finden sich hingegen die LLM-Plattformen der Tech-Riesen Microsoft, Google und Meta. Bei Gemini, DeepSeek, Pi AI und Meta AI können die Benutzer offenbar nicht verhindern, dass ihre Prompts zum Modelltraining verwendet werden. ChatGPT ist in Sachen Transparenz Spitzenreiter. Bei Grok (xAI) können Fotos, die von Nutzern bereitgestellt werden, potenziell an Dritte weitergegeben werden. Ranking-Schlusslicht Meta gibt Namen, E-Mail-Adressen und Telefonnummern an Dritte weiter, darunter etwa Research-Partner. Seine Erkenntnisse hat Incogni (unter anderem) auch in einem Privacy-Gesamt-Ranking für das Jahr 2025 visualisiert: Laut Justin St-Maurice, technischer Berater bei der Info-Tech Research Group, ist es aus Unternehmensperspektive von entscheidender Bedeutung, die Belegschaft darin zu schulen, welche Daten nicht in KI-Tools einfließen dürften: “Betrachten Sie die Plattformen als öffentlich. Diese Systeme mit personenbezogenen oder sensiblen Unternehmensdaten zu füttern, ist, wie als würden Sie diese in einem Blog veröffentlichen.” Mit Blick auf die Incogni-Erkenntnisse rät der Research-Experte Unternehmen, mit Bedacht zu evaluieren: “Wenn Sie Bedenken haben, dass Meta oder Google Ihre Daten weitergeben, sollten Sie Ihre Plattformwahl ganz generell überdenken. Es geht hier weniger darum, wie die LLMs Ihre Daten verarbeiten, sondern eher darum, wie die großen Tech-Konzerne im Allgemeinen mit den Daten ihrer Nutzer umgehen.” Unternehmensanwendern, die sichergehen möchten, keinerlei Daten an GenAI-Plattformen weiterzugeben, empfiehlt der Experte, auf lokal gehostete Modelle zu setzen: “Sie brauchen weder OpenAI noch Google, um den Wert von LLMs zu erschließen. Mit eigenen KI-Modellen vermeiden Sie das Risiko vollständig, dass Ihre Daten an Dritte weitergegeben werden.” Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Eine aktuelle Studie beleuchtet, welche Generative-AI-Tools und -Plattformen besonders invasive Datenpraktiken an den Tag legen.Cagkan Sayin | shutterstock.com Der auf Datenschutz spezialisierte IT-Dienstleister Incogni hat in einer aktuellen Untersuchung neun Large Language Models (LLMs) verschiedener Anbieter hinsichtlich ihres Datenschutzniveaus unter die Lupe genommen – und beunruhigende Erkenntnisse zu Tage gefördert. Dabei hat die Research-Abteilung von Incogni anhand unterschiedlicher Bewertungskriterien (mit diversen Subkategorien) untersucht, in welchem Umfang die Anbieter User-Daten nutzen, um ihre Modelle zu trainieren, wie transparent sie mit ihren Datenpraktiken umgehen, und in welchem Umfang die gesammelten Daten an Dritte fließen.   Diese KI-Plattformen sind besonders invasiv Die wichtigsten, respektive alarmierendsten Ergebnisse der Incogni-Untersuchung im Überblick: Le Chat von Mistral AI ist demnach die Datenschutz-freundlichste Plattform, dicht gefolgt von ChatGPT und Grok. Am anderen Ende des Rankings finden sich hingegen die LLM-Plattformen der Tech-Riesen Microsoft, Google und Meta. Bei Gemini, DeepSeek, Pi AI und Meta AI können die Benutzer offenbar nicht verhindern, dass ihre Prompts zum Modelltraining verwendet werden. ChatGPT ist in Sachen Transparenz Spitzenreiter. Bei Grok (xAI) können Fotos, die von Nutzern bereitgestellt werden, potenziell an Dritte weitergegeben werden. Ranking-Schlusslicht Meta gibt Namen, E-Mail-Adressen und Telefonnummern an Dritte weiter, darunter etwa Research-Partner. Seine Erkenntnisse hat Incogni (unter anderem) auch in einem Privacy-Gesamt-Ranking für das Jahr 2025 visualisiert: Laut Justin St-Maurice, technischer Berater bei der Info-Tech Research Group, ist es aus Unternehmensperspektive von entscheidender Bedeutung, die Belegschaft darin zu schulen, welche Daten nicht in KI-Tools einfließen dürften: “Betrachten Sie die Plattformen als öffentlich. Diese Systeme mit personenbezogenen oder sensiblen Unternehmensdaten zu füttern, ist, wie als würden Sie diese in einem Blog veröffentlichen.” Mit Blick auf die Incogni-Erkenntnisse rät der Research-Experte Unternehmen, mit Bedacht zu evaluieren: “Wenn Sie Bedenken haben, dass Meta oder Google Ihre Daten weitergeben, sollten Sie Ihre Plattformwahl ganz generell überdenken. Es geht hier weniger darum, wie die LLMs Ihre Daten verarbeiten, sondern eher darum, wie die großen Tech-Konzerne im Allgemeinen mit den Daten ihrer Nutzer umgehen.” Unternehmensanwendern, die sichergehen möchten, keinerlei Daten an GenAI-Plattformen weiterzugeben, empfiehlt der Experte, auf lokal gehostete Modelle zu setzen: “Sie brauchen weder OpenAI noch Google, um den Wert von LLMs zu erschließen. Mit eigenen KI-Modellen vermeiden Sie das Risiko vollständig, dass Ihre Daten an Dritte weitergegeben werden.” Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Nach oben scrollen
×