„An der Stelle könnte es noch ein bisschen mehr ‚Openness‘ vertragen.“alexfan32 | shutterstock.com Im KI-Goldrausch hat sich ein neuer Trend etabliert. Die wichtigsten, großen Akteure – von Open AI über Google bis hin zu Microsoft – vermarkten ihre KI-Modelle aus der Cloud inzwischen vornehmlich als „offen“. Das Ziel: Die Konzerne wollen den Eindruck erwecken, sie würden sich kompromisslos Open-Source-Prinzipien wie Transparenz, Zusammenarbeit und Wiederverwendbarkeit verschreiben. Wer genauer hinsieht, erkennt schnell: Damit ist es nicht weit her. Die Praxis, die eigene „Openness“ herauszustellen, dabei aber parallel kritische Komponenten Cloud-basierter KI-Angebote proprietär zu halten, hat inzwischen auch einen eigenen Namen: „Openwashing“. Das Gebaren schlägt in dieselbe Kerbe wie Cloud- und KI-Washing. Was auf den ersten Blick „demokratisch“ und „gemeinschaftlich“ erscheint, ist in der Praxis nur eine ausgefeilte Marketingstrategie der Tech-Giganten, um die Kontrolle aufrechtzuerhalten und die Macht zu konzentrieren (auf sich selbst, versteht sich). Openwashing in der Praxis Openwashing ist vor allem ein Cloud-Problem: Die meisten der vermeintlich offenen KI-Modelle werden von großen Cloud-Anbietern angeboten. Die stellen ihre KI-Modelle zwar als „offen zugänglich“ dar. Kritische Aspekte der Systeme wie Datensätze, Infrastrukturen, Trainingsmethoden oder Frameworks unterliegen jedoch strenger Geheimhaltung und bleiben proprietär. Die genannten Elemente sind jedoch alles andere als nebensächlich. Sie bestimmen darüber, wie gut sich KI-Lösungen skalieren lassen und wie viel Innovationspotenzial sie bieten. Eine Folge ist, dass die Anwender, die in einem solchen, vermeintlich „offenen“ Ökosystem Lösungen auf ihre jeweiligen Bedürfnisse anpassen, beziehungsweise erweitern möchten, zur Kasse gebeten werden. Ein Paradebeispiel dafür sind Large Language Models (LLMs), die mit „Permissive Licenses“ ausgestattet sind. Diese Lizenzen erlauben im Regelfall, dass jeder Nutzer die Modelle nutzen oder anpassen kann. Parallel wird dabei jedoch häufig der Zugriff auf vollständige Trainingsdatensätze oder die Rechenleistung, die nötig ist, um die Modelle von Grund auf neu zu erstellen, ausgeschlossen. Ähnlich verhält es sich beim Blick auf die Reusability – eine weitere Säule der „Openness“: Die Konzerne gestatten zwar den Zugriff auf ihre KI-Modelle über APIs, verknüpfen diese aber mit proprietären Ökosystemen. Das eröffnet ein gewisses, kalkuliertes Maß an Wiederverwendbarkeit – das die Wertschöpfung der Cloud-Giganten maximiert und parallel den Wettbewerb einschränkt. Beispiel OpenAI: Die GPT-Modelle sind offen zugänglich, aber ihre Integrationen sind immer an bestimmte Web-Clients, Wartungsbibliotheken und (hauseigene) Applikationen gebunden. Ein Entwickler-Kollege hat es vor kurzem folgendermaßen ausgedrückt: „Das Zeug ist so offen wie ein Banktresor.“ Und selbst KI-Modelle mit großzügiger Lizenzierung, wie beispielsweise Metas Llama 3, sind mit restriktiven Bedingungen verknüpft, die die Einsatz- und Anpassungsmöglichkeiten limitieren. Auch beim arbeitsintensiven Prozess der Datenkuratierung, -kennzeichnung und -moderation mauern, respektive verschleiern die Tech-Riesen gerne und halten kritische Datensätze in Silos. Eine Replikation ist so nahezu ausgeschlossen. Diese selektive Transparenz sorgt dafür, dass kleinere Organisationen von den Ökosystemen der Cloud-Riesen abhängig bleiben, was das Machtgefälle zementiert. Wirklich transparente, offene KI würde hingegen bedeuten: öffentlich zu dokumentieren, wie die Modelle entwickelt, trainiert, verfeinert und eingesetzt werden. vollständigen Zugang zu den Datensätzen, Architekturen und Entscheidungsprozessen zu gewähren, die mit Blick auf KI-Modelle eine entscheidende Rolle spielen. Die meisten Tech-Konzerne können von einem solchen Maß an Transparenz nur träumen. Sie erzeugen durch die selektive, teilweise Freigabe ihrer KI-Modelle lediglich eine Illusion von Offenheit. Was heißt das für Anwenderunternehmen? Wenn Anbieter behaupten, offene KI-Modelle anzubieten, sollten Führungskräfte und Entscheider von Anwenderunternehmen nicht davor zurückschrecken, genauer nachzufragen: Wie genau und in welchem Umfang lässt sich das Modell modifizieren? Wo ist die vollständige Dokumentation zu finden? Wie sieht die Lizenz im Detail aus? Lassen Sie sich also nicht vom Hype um vermeintlich offene Standards mitreißen. Konzentrieren Sie sich stattdessen darauf, wie KI-Tools und -Services (innerhalb ihrer jeweiligen Grenzen) Ihr Unternehmen voranbringen können. Und denken Sie immer an den zugegebenermaßen etwas abgedroschenen Spruch: Wenn etwas zu schön klingt, um wahr zu sein, ist es das im Regelfall auch. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
Openwashing – die neue Masche der KI-Anbieter
„An der Stelle könnte es noch ein bisschen mehr ‚Openness‘ vertragen.“alexfan32 | shutterstock.com Im KI-Goldrausch hat sich ein neuer Trend etabliert. Die wichtigsten, großen Akteure – von Open AI über Google bis hin zu Microsoft – vermarkten ihre KI-Modelle aus der Cloud inzwischen vornehmlich als „offen“. Das Ziel: Die Konzerne wollen den Eindruck erwecken, sie würden sich kompromisslos Open-Source-Prinzipien wie Transparenz, Zusammenarbeit und Wiederverwendbarkeit verschreiben. Wer genauer hinsieht, erkennt schnell: Damit ist es nicht weit her. Die Praxis, die eigene „Openness“ herauszustellen, dabei aber parallel kritische Komponenten Cloud-basierter KI-Angebote proprietär zu halten, hat inzwischen auch einen eigenen Namen: „Openwashing“. Das Gebaren schlägt in dieselbe Kerbe wie Cloud- und KI-Washing. Was auf den ersten Blick „demokratisch“ und „gemeinschaftlich“ erscheint, ist in der Praxis nur eine ausgefeilte Marketingstrategie der Tech-Giganten, um die Kontrolle aufrechtzuerhalten und die Macht zu konzentrieren (auf sich selbst, versteht sich). Openwashing in der Praxis Openwashing ist vor allem ein Cloud-Problem: Die meisten der vermeintlich offenen KI-Modelle werden von großen Cloud-Anbietern angeboten. Die stellen ihre KI-Modelle zwar als „offen zugänglich“ dar. Kritische Aspekte der Systeme wie Datensätze, Infrastrukturen, Trainingsmethoden oder Frameworks unterliegen jedoch strenger Geheimhaltung und bleiben proprietär. Die genannten Elemente sind jedoch alles andere als nebensächlich. Sie bestimmen darüber, wie gut sich KI-Lösungen skalieren lassen und wie viel Innovationspotenzial sie bieten. Eine Folge ist, dass die Anwender, die in einem solchen, vermeintlich „offenen“ Ökosystem Lösungen auf ihre jeweiligen Bedürfnisse anpassen, beziehungsweise erweitern möchten, zur Kasse gebeten werden. Ein Paradebeispiel dafür sind Large Language Models (LLMs), die mit „Permissive Licenses“ ausgestattet sind. Diese Lizenzen erlauben im Regelfall, dass jeder Nutzer die Modelle nutzen oder anpassen kann. Parallel wird dabei jedoch häufig der Zugriff auf vollständige Trainingsdatensätze oder die Rechenleistung, die nötig ist, um die Modelle von Grund auf neu zu erstellen, ausgeschlossen. Ähnlich verhält es sich beim Blick auf die Reusability – eine weitere Säule der „Openness“: Die Konzerne gestatten zwar den Zugriff auf ihre KI-Modelle über APIs, verknüpfen diese aber mit proprietären Ökosystemen. Das eröffnet ein gewisses, kalkuliertes Maß an Wiederverwendbarkeit – das die Wertschöpfung der Cloud-Giganten maximiert und parallel den Wettbewerb einschränkt. Beispiel OpenAI: Die GPT-Modelle sind offen zugänglich, aber ihre Integrationen sind immer an bestimmte Web-Clients, Wartungsbibliotheken und (hauseigene) Applikationen gebunden. Ein Entwickler-Kollege hat es vor kurzem folgendermaßen ausgedrückt: „Das Zeug ist so offen wie ein Banktresor.“ Und selbst KI-Modelle mit großzügiger Lizenzierung, wie beispielsweise Metas Llama 3, sind mit restriktiven Bedingungen verknüpft, die die Einsatz- und Anpassungsmöglichkeiten limitieren. Auch beim arbeitsintensiven Prozess der Datenkuratierung, -kennzeichnung und -moderation mauern, respektive verschleiern die Tech-Riesen gerne und halten kritische Datensätze in Silos. Eine Replikation ist so nahezu ausgeschlossen. Diese selektive Transparenz sorgt dafür, dass kleinere Organisationen von den Ökosystemen der Cloud-Riesen abhängig bleiben, was das Machtgefälle zementiert. Wirklich transparente, offene KI würde hingegen bedeuten: öffentlich zu dokumentieren, wie die Modelle entwickelt, trainiert, verfeinert und eingesetzt werden. vollständigen Zugang zu den Datensätzen, Architekturen und Entscheidungsprozessen zu gewähren, die mit Blick auf KI-Modelle eine entscheidende Rolle spielen. Die meisten Tech-Konzerne können von einem solchen Maß an Transparenz nur träumen. Sie erzeugen durch die selektive, teilweise Freigabe ihrer KI-Modelle lediglich eine Illusion von Offenheit. Was heißt das für Anwenderunternehmen? Wenn Anbieter behaupten, offene KI-Modelle anzubieten, sollten Führungskräfte und Entscheider von Anwenderunternehmen nicht davor zurückschrecken, genauer nachzufragen: Wie genau und in welchem Umfang lässt sich das Modell modifizieren? Wo ist die vollständige Dokumentation zu finden? Wie sieht die Lizenz im Detail aus? Lassen Sie sich also nicht vom Hype um vermeintlich offene Standards mitreißen. Konzentrieren Sie sich stattdessen darauf, wie KI-Tools und -Services (innerhalb ihrer jeweiligen Grenzen) Ihr Unternehmen voranbringen können. Und denken Sie immer an den zugegebenermaßen etwas abgedroschenen Spruch: Wenn etwas zu schön klingt, um wahr zu sein, ist es das im Regelfall auch. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
Openwashing – die neue Masche der KI-Anbieter „An der Stelle könnte es noch ein bisschen mehr ‚Openness‘ vertragen.“alexfan32 | shutterstock.com Im KI-Goldrausch hat sich ein neuer Trend etabliert. Die wichtigsten, großen Akteure – von Open AI über Google bis hin zu Microsoft – vermarkten ihre KI-Modelle aus der Cloud inzwischen vornehmlich als „offen“. Das Ziel: Die Konzerne wollen den Eindruck erwecken, sie würden sich kompromisslos Open-Source-Prinzipien wie Transparenz, Zusammenarbeit und Wiederverwendbarkeit verschreiben. Wer genauer hinsieht, erkennt schnell: Damit ist es nicht weit her. Die Praxis, die eigene „Openness“ herauszustellen, dabei aber parallel kritische Komponenten Cloud-basierter KI-Angebote proprietär zu halten, hat inzwischen auch einen eigenen Namen: „Openwashing“. Das Gebaren schlägt in dieselbe Kerbe wie Cloud- und KI-Washing. Was auf den ersten Blick „demokratisch“ und „gemeinschaftlich“ erscheint, ist in der Praxis nur eine ausgefeilte Marketingstrategie der Tech-Giganten, um die Kontrolle aufrechtzuerhalten und die Macht zu konzentrieren (auf sich selbst, versteht sich). Openwashing in der Praxis Openwashing ist vor allem ein Cloud-Problem: Die meisten der vermeintlich offenen KI-Modelle werden von großen Cloud-Anbietern angeboten. Die stellen ihre KI-Modelle zwar als „offen zugänglich“ dar. Kritische Aspekte der Systeme wie Datensätze, Infrastrukturen, Trainingsmethoden oder Frameworks unterliegen jedoch strenger Geheimhaltung und bleiben proprietär. Die genannten Elemente sind jedoch alles andere als nebensächlich. Sie bestimmen darüber, wie gut sich KI-Lösungen skalieren lassen und wie viel Innovationspotenzial sie bieten. Eine Folge ist, dass die Anwender, die in einem solchen, vermeintlich „offenen“ Ökosystem Lösungen auf ihre jeweiligen Bedürfnisse anpassen, beziehungsweise erweitern möchten, zur Kasse gebeten werden. Ein Paradebeispiel dafür sind Large Language Models (LLMs), die mit „Permissive Licenses“ ausgestattet sind. Diese Lizenzen erlauben im Regelfall, dass jeder Nutzer die Modelle nutzen oder anpassen kann. Parallel wird dabei jedoch häufig der Zugriff auf vollständige Trainingsdatensätze oder die Rechenleistung, die nötig ist, um die Modelle von Grund auf neu zu erstellen, ausgeschlossen. Ähnlich verhält es sich beim Blick auf die Reusability – eine weitere Säule der „Openness“: Die Konzerne gestatten zwar den Zugriff auf ihre KI-Modelle über APIs, verknüpfen diese aber mit proprietären Ökosystemen. Das eröffnet ein gewisses, kalkuliertes Maß an Wiederverwendbarkeit – das die Wertschöpfung der Cloud-Giganten maximiert und parallel den Wettbewerb einschränkt. Beispiel OpenAI: Die GPT-Modelle sind offen zugänglich, aber ihre Integrationen sind immer an bestimmte Web-Clients, Wartungsbibliotheken und (hauseigene) Applikationen gebunden. Ein Entwickler-Kollege hat es vor kurzem folgendermaßen ausgedrückt: „Das Zeug ist so offen wie ein Banktresor.“ Und selbst KI-Modelle mit großzügiger Lizenzierung, wie beispielsweise Metas Llama 3, sind mit restriktiven Bedingungen verknüpft, die die Einsatz- und Anpassungsmöglichkeiten limitieren. Auch beim arbeitsintensiven Prozess der Datenkuratierung, -kennzeichnung und -moderation mauern, respektive verschleiern die Tech-Riesen gerne und halten kritische Datensätze in Silos. Eine Replikation ist so nahezu ausgeschlossen. Diese selektive Transparenz sorgt dafür, dass kleinere Organisationen von den Ökosystemen der Cloud-Riesen abhängig bleiben, was das Machtgefälle zementiert. Wirklich transparente, offene KI würde hingegen bedeuten: öffentlich zu dokumentieren, wie die Modelle entwickelt, trainiert, verfeinert und eingesetzt werden. vollständigen Zugang zu den Datensätzen, Architekturen und Entscheidungsprozessen zu gewähren, die mit Blick auf KI-Modelle eine entscheidende Rolle spielen. Die meisten Tech-Konzerne können von einem solchen Maß an Transparenz nur träumen. Sie erzeugen durch die selektive, teilweise Freigabe ihrer KI-Modelle lediglich eine Illusion von Offenheit. Was heißt das für Anwenderunternehmen? Wenn Anbieter behaupten, offene KI-Modelle anzubieten, sollten Führungskräfte und Entscheider von Anwenderunternehmen nicht davor zurückschrecken, genauer nachzufragen: Wie genau und in welchem Umfang lässt sich das Modell modifizieren? Wo ist die vollständige Dokumentation zu finden? Wie sieht die Lizenz im Detail aus? Lassen Sie sich also nicht vom Hype um vermeintlich offene Standards mitreißen. Konzentrieren Sie sich stattdessen darauf, wie KI-Tools und -Services (innerhalb ihrer jeweiligen Grenzen) Ihr Unternehmen voranbringen können. Und denken Sie immer an den zugegebenermaßen etwas abgedroschenen Spruch: Wenn etwas zu schön klingt, um wahr zu sein, ist es das im Regelfall auch. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!