Künstliche Intelligenz soll niemanden töten und doch könnte die Rechenleistung von Google demnächst genau dabei helfen. shutterstock.com – Phil Pasquini Einst begann Google Verhaltenskodex mit den Worten „Don’t be evil“, bevor das Leitmotto 2009 zu einem „Mantra“ herabgestuft wurde. Bei der Gründung von Alphabet im Jahr 2015 schaffte es diese Botschaft dann nicht einmal mehr in den Ethikkodex der Google-Mutter. Jetzt macht der US-Techriese es Metas Llama LLM und Microsofts Dall-E nach: Die Grundsätze und Leitplanken für die eigenen Künstliche Intelligenz (KI) werden grundlegend überarbeitet und aufgeweicht. Bei Google spricht nun niemand mehr davon, keine Technologien zu erforschen, die „Schaden verursachen oder wahrscheinlich verursachen“ könnten. Google hatte 2018 KI-Grundsätze veröffentlicht, um interne Proteste gegen die Beteiligung an einem US-Militärdrohnenprogramm zu besänftigen. Das Unternehmen lehnte damals in Folge des Widerstands aus Reihen der eigenen Belegschaft eine Vertragsverlängerung mit der US-Regierung ab. Des Weiteren verpflichtete sich der Tech-Gigant, keine Waffen, bestimmte Überwachungssysteme oder menschenrechtsverletzende Technologien zu entwickeln. Google reagiert auf KI-Trends und geopolitische Spannungen Wenige Wochen nach Beginn von Donald Trumps zweiter Amtszeit ist davon keine Rede mehr. Google verkündete am 4. Februar 2025 ein Update seiner AI Principles. Darin wird der Einsatz der eigenen KI-Technik für die Entwicklung von Waffen nicht mehr explizit ausgeschlossen. Bei seinen Leitlinien bleibt der Konzern generisch und unverbindlich. Die Google-Verantwortlichen sprechen von Mutiger Innovation: Wir entwickeln künstliche Intelligenz, um Menschen in fast allen Bereichen menschlichen Strebens zu unterstützen, zu befähigen und zu inspirieren, den wirtschaftlichen Fortschritt voranzutreiben und Leben zu verbessern, wissenschaftliche Durchbrüche zu ermöglichen und die größten Herausforderungen der Menschheit zu bewältigen. Verantwortungsvoller Entwicklung und Bereitstellung: Wir sind uns bewusst, dass KI als eine noch im Entstehen begriffene, transformative Technologie neue Komplexitäten und Risiken birgt. Daher halten wir es für unerlässlich, KI während des gesamten Entwicklungs- und Einsatzzyklus verantwortungsvoll zu betreiben – von der Konzeption über die Erprobung und den Einsatz bis hin zur Iteration – und mit den Fortschritten der KI und den sich verändernden Einsatzmöglichkeiten zu lernen. Gemeinsamem Fortschritt: Wir lernen von anderen und entwickeln Technologien, die andere befähigen, KI positiv zu nutzen. Google-Führungskräfte begründen die Überarbeitung mit der wachsenden Verbreitung von KI, der Entwicklung von Standards und geopolitischen Spannungen. Zugleich betonte Google-Sprecher Alex Krasov, dass die Änderungen bereits länger geplant waren. Aufruf zur Zusammenarbeit für verantwortungsvolle KI Google will mit den neuen Richtlinien menschliche Aufsicht und Sorgfaltsmechanismen einführen, um soziale Verantwortung sowie Menschenrechtsprinzipien zu berücksichtigen. Zusätzlich soll dies schädliche Auswirkungen minimieren. Die Google-Manager James Manyika, Senior Vice President für die Bereiche Research, Labs, Technology & Society, und Demis Hassabis, CEO of Google DeepMind betonen, dass Demokratien bei der KI-Entwicklung führend sein sollten, basierend auf Werten wie Freiheit und Gleichheit. Sie rufen deshalb zu einer Zusammenarbeit von Unternehmen, Regierungen und Organisationen auf. KI solle zum Schutz von Menschen, wirtschaftlichem Wachstum und nationaler Sicherheit genutzt werden. Neue Prioritäten für KI-Projekte Google betont, dass seine KI-Projekte weiterhin mit seiner Mission, dem wissenschaftlichen Fokus und internationalen Menschenrechtsprinzipien übereinstimmen würden. Das Unternehmen will eigenen Angaben zufolge neue Prioritäten für KI setzen, darunter mutige, verantwortungsvolle und kollaborative Initiativen. Gleichzeitig streicht der Konzern aber Begriffe wie „sozialer Nutzen“ und „wissenschaftliche Exzellenz“. Neu aufgenommen wurde dafür die „Achtung der Rechte an geistigem Eigentum“. Geprüft werden die KI-Grundsätze von zwei eigens dafür gegründeten Teams: eines für Googles Kernprodukte wie Suche und Maps, das andere für Cloud-Dienste. Anfang 2024 wurde darüber hinaus das Team für Verbraucherprodukte aufgeteilt. Ziel war es die Entwicklung generativer KI voranzutreiben und mit OpenAI zu konkurrieren. KI-Dienste für Verbraucher strikt reguliert Googles offizielle Richtlinie zur akzeptablen Nutzung der Cloud-Plattform, die verschiedene KI-gesteuerte Produkte umfasst, verfügt allerdings weiterhin über einen Passus, Schäden zu vermeiden. Die Richtlinie verbietet unter anderem die Verletzung von „gesetzlichen Rechten anderer“ und die Beteiligung an oder die Förderung von illegalen Aktivitäten wie „Terrorismus oder Gewalt, die Tod, schwere Schäden oder Verletzungen von Einzelpersonen oder Gruppen von Einzelpersonen verursachen können“. Ehemalige Mitarbeiter zweifeln an Googles Prinzipien Google erklärte auch, dass der Cloud-Computing-Vertrag „Projekt Nimbus“ mit Israel keine militärischen oder geheimdienstlichen Anwendungen umfasst. Hierbei verweist der Techkonzern auf die bestehenden Nutzungsbedingungen von Google Cloud. Ehemalige Google-Mitarbeiter, darunter Timnit Gebru, äußern allerdings Zweifel an Googles Engagement für seine Prinzipien. Gebru kritisiert, dass sich das Unternehmen damit gerne in der Öffentlichkeit schmücke, dann aber oft anders handele. Drei Ex-Mitarbeiter berichten zudem, dass die Durchsetzung der Prinzipien schwierig gewesen wäre, da sie unterschiedlich ausgelegt würden und geschäftliche Interessen oft Vorrang hätten.
Google öffnet seine KI fürs Militär
Künstliche Intelligenz soll niemanden töten und doch könnte die Rechenleistung von Google demnächst genau dabei helfen. shutterstock.com – Phil Pasquini Einst begann Google Verhaltenskodex mit den Worten „Don’t be evil“, bevor das Leitmotto 2009 zu einem „Mantra“ herabgestuft wurde. Bei der Gründung von Alphabet im Jahr 2015 schaffte es diese Botschaft dann nicht einmal mehr in den Ethikkodex der Google-Mutter. Jetzt macht der US-Techriese es Metas Llama LLM und Microsofts Dall-E nach: Die Grundsätze und Leitplanken für die eigenen Künstliche Intelligenz (KI) werden grundlegend überarbeitet und aufgeweicht. Bei Google spricht nun niemand mehr davon, keine Technologien zu erforschen, die „Schaden verursachen oder wahrscheinlich verursachen“ könnten. Google hatte 2018 KI-Grundsätze veröffentlicht, um interne Proteste gegen die Beteiligung an einem US-Militärdrohnenprogramm zu besänftigen. Das Unternehmen lehnte damals in Folge des Widerstands aus Reihen der eigenen Belegschaft eine Vertragsverlängerung mit der US-Regierung ab. Des Weiteren verpflichtete sich der Tech-Gigant, keine Waffen, bestimmte Überwachungssysteme oder menschenrechtsverletzende Technologien zu entwickeln. Google reagiert auf KI-Trends und geopolitische Spannungen Wenige Wochen nach Beginn von Donald Trumps zweiter Amtszeit ist davon keine Rede mehr. Google verkündete am 4. Februar 2025 ein Update seiner AI Principles. Darin wird der Einsatz der eigenen KI-Technik für die Entwicklung von Waffen nicht mehr explizit ausgeschlossen. Bei seinen Leitlinien bleibt der Konzern generisch und unverbindlich. Die Google-Verantwortlichen sprechen von Mutiger Innovation: Wir entwickeln künstliche Intelligenz, um Menschen in fast allen Bereichen menschlichen Strebens zu unterstützen, zu befähigen und zu inspirieren, den wirtschaftlichen Fortschritt voranzutreiben und Leben zu verbessern, wissenschaftliche Durchbrüche zu ermöglichen und die größten Herausforderungen der Menschheit zu bewältigen. Verantwortungsvoller Entwicklung und Bereitstellung: Wir sind uns bewusst, dass KI als eine noch im Entstehen begriffene, transformative Technologie neue Komplexitäten und Risiken birgt. Daher halten wir es für unerlässlich, KI während des gesamten Entwicklungs- und Einsatzzyklus verantwortungsvoll zu betreiben – von der Konzeption über die Erprobung und den Einsatz bis hin zur Iteration – und mit den Fortschritten der KI und den sich verändernden Einsatzmöglichkeiten zu lernen. Gemeinsamem Fortschritt: Wir lernen von anderen und entwickeln Technologien, die andere befähigen, KI positiv zu nutzen. Google-Führungskräfte begründen die Überarbeitung mit der wachsenden Verbreitung von KI, der Entwicklung von Standards und geopolitischen Spannungen. Zugleich betonte Google-Sprecher Alex Krasov, dass die Änderungen bereits länger geplant waren. Aufruf zur Zusammenarbeit für verantwortungsvolle KI Google will mit den neuen Richtlinien menschliche Aufsicht und Sorgfaltsmechanismen einführen, um soziale Verantwortung sowie Menschenrechtsprinzipien zu berücksichtigen. Zusätzlich soll dies schädliche Auswirkungen minimieren. Die Google-Manager James Manyika, Senior Vice President für die Bereiche Research, Labs, Technology & Society, und Demis Hassabis, CEO of Google DeepMind betonen, dass Demokratien bei der KI-Entwicklung führend sein sollten, basierend auf Werten wie Freiheit und Gleichheit. Sie rufen deshalb zu einer Zusammenarbeit von Unternehmen, Regierungen und Organisationen auf. KI solle zum Schutz von Menschen, wirtschaftlichem Wachstum und nationaler Sicherheit genutzt werden. Neue Prioritäten für KI-Projekte Google betont, dass seine KI-Projekte weiterhin mit seiner Mission, dem wissenschaftlichen Fokus und internationalen Menschenrechtsprinzipien übereinstimmen würden. Das Unternehmen will eigenen Angaben zufolge neue Prioritäten für KI setzen, darunter mutige, verantwortungsvolle und kollaborative Initiativen. Gleichzeitig streicht der Konzern aber Begriffe wie „sozialer Nutzen“ und „wissenschaftliche Exzellenz“. Neu aufgenommen wurde dafür die „Achtung der Rechte an geistigem Eigentum“. Geprüft werden die KI-Grundsätze von zwei eigens dafür gegründeten Teams: eines für Googles Kernprodukte wie Suche und Maps, das andere für Cloud-Dienste. Anfang 2024 wurde darüber hinaus das Team für Verbraucherprodukte aufgeteilt. Ziel war es die Entwicklung generativer KI voranzutreiben und mit OpenAI zu konkurrieren. KI-Dienste für Verbraucher strikt reguliert Googles offizielle Richtlinie zur akzeptablen Nutzung der Cloud-Plattform, die verschiedene KI-gesteuerte Produkte umfasst, verfügt allerdings weiterhin über einen Passus, Schäden zu vermeiden. Die Richtlinie verbietet unter anderem die Verletzung von „gesetzlichen Rechten anderer“ und die Beteiligung an oder die Förderung von illegalen Aktivitäten wie „Terrorismus oder Gewalt, die Tod, schwere Schäden oder Verletzungen von Einzelpersonen oder Gruppen von Einzelpersonen verursachen können“. Ehemalige Mitarbeiter zweifeln an Googles Prinzipien Google erklärte auch, dass der Cloud-Computing-Vertrag „Projekt Nimbus“ mit Israel keine militärischen oder geheimdienstlichen Anwendungen umfasst. Hierbei verweist der Techkonzern auf die bestehenden Nutzungsbedingungen von Google Cloud. Ehemalige Google-Mitarbeiter, darunter Timnit Gebru, äußern allerdings Zweifel an Googles Engagement für seine Prinzipien. Gebru kritisiert, dass sich das Unternehmen damit gerne in der Öffentlichkeit schmücke, dann aber oft anders handele. Drei Ex-Mitarbeiter berichten zudem, dass die Durchsetzung der Prinzipien schwierig gewesen wäre, da sie unterschiedlich ausgelegt würden und geschäftliche Interessen oft Vorrang hätten.
Google öffnet seine KI fürs Militär Künstliche Intelligenz soll niemanden töten und doch könnte die Rechenleistung von Google demnächst genau dabei helfen. shutterstock.com – Phil Pasquini Einst begann Google Verhaltenskodex mit den Worten „Don’t be evil“, bevor das Leitmotto 2009 zu einem „Mantra“ herabgestuft wurde. Bei der Gründung von Alphabet im Jahr 2015 schaffte es diese Botschaft dann nicht einmal mehr in den Ethikkodex der Google-Mutter. Jetzt macht der US-Techriese es Metas Llama LLM und Microsofts Dall-E nach: Die Grundsätze und Leitplanken für die eigenen Künstliche Intelligenz (KI) werden grundlegend überarbeitet und aufgeweicht. Bei Google spricht nun niemand mehr davon, keine Technologien zu erforschen, die „Schaden verursachen oder wahrscheinlich verursachen“ könnten. Google hatte 2018 KI-Grundsätze veröffentlicht, um interne Proteste gegen die Beteiligung an einem US-Militärdrohnenprogramm zu besänftigen. Das Unternehmen lehnte damals in Folge des Widerstands aus Reihen der eigenen Belegschaft eine Vertragsverlängerung mit der US-Regierung ab. Des Weiteren verpflichtete sich der Tech-Gigant, keine Waffen, bestimmte Überwachungssysteme oder menschenrechtsverletzende Technologien zu entwickeln. Google reagiert auf KI-Trends und geopolitische Spannungen Wenige Wochen nach Beginn von Donald Trumps zweiter Amtszeit ist davon keine Rede mehr. Google verkündete am 4. Februar 2025 ein Update seiner AI Principles. Darin wird der Einsatz der eigenen KI-Technik für die Entwicklung von Waffen nicht mehr explizit ausgeschlossen. Bei seinen Leitlinien bleibt der Konzern generisch und unverbindlich. Die Google-Verantwortlichen sprechen von Mutiger Innovation: Wir entwickeln künstliche Intelligenz, um Menschen in fast allen Bereichen menschlichen Strebens zu unterstützen, zu befähigen und zu inspirieren, den wirtschaftlichen Fortschritt voranzutreiben und Leben zu verbessern, wissenschaftliche Durchbrüche zu ermöglichen und die größten Herausforderungen der Menschheit zu bewältigen. Verantwortungsvoller Entwicklung und Bereitstellung: Wir sind uns bewusst, dass KI als eine noch im Entstehen begriffene, transformative Technologie neue Komplexitäten und Risiken birgt. Daher halten wir es für unerlässlich, KI während des gesamten Entwicklungs- und Einsatzzyklus verantwortungsvoll zu betreiben – von der Konzeption über die Erprobung und den Einsatz bis hin zur Iteration – und mit den Fortschritten der KI und den sich verändernden Einsatzmöglichkeiten zu lernen. Gemeinsamem Fortschritt: Wir lernen von anderen und entwickeln Technologien, die andere befähigen, KI positiv zu nutzen. Google-Führungskräfte begründen die Überarbeitung mit der wachsenden Verbreitung von KI, der Entwicklung von Standards und geopolitischen Spannungen. Zugleich betonte Google-Sprecher Alex Krasov, dass die Änderungen bereits länger geplant waren. Aufruf zur Zusammenarbeit für verantwortungsvolle KI Google will mit den neuen Richtlinien menschliche Aufsicht und Sorgfaltsmechanismen einführen, um soziale Verantwortung sowie Menschenrechtsprinzipien zu berücksichtigen. Zusätzlich soll dies schädliche Auswirkungen minimieren. Die Google-Manager James Manyika, Senior Vice President für die Bereiche Research, Labs, Technology & Society, und Demis Hassabis, CEO of Google DeepMind betonen, dass Demokratien bei der KI-Entwicklung führend sein sollten, basierend auf Werten wie Freiheit und Gleichheit. Sie rufen deshalb zu einer Zusammenarbeit von Unternehmen, Regierungen und Organisationen auf. KI solle zum Schutz von Menschen, wirtschaftlichem Wachstum und nationaler Sicherheit genutzt werden. Neue Prioritäten für KI-Projekte Google betont, dass seine KI-Projekte weiterhin mit seiner Mission, dem wissenschaftlichen Fokus und internationalen Menschenrechtsprinzipien übereinstimmen würden. Das Unternehmen will eigenen Angaben zufolge neue Prioritäten für KI setzen, darunter mutige, verantwortungsvolle und kollaborative Initiativen. Gleichzeitig streicht der Konzern aber Begriffe wie „sozialer Nutzen“ und „wissenschaftliche Exzellenz“. Neu aufgenommen wurde dafür die „Achtung der Rechte an geistigem Eigentum“. Geprüft werden die KI-Grundsätze von zwei eigens dafür gegründeten Teams: eines für Googles Kernprodukte wie Suche und Maps, das andere für Cloud-Dienste. Anfang 2024 wurde darüber hinaus das Team für Verbraucherprodukte aufgeteilt. Ziel war es die Entwicklung generativer KI voranzutreiben und mit OpenAI zu konkurrieren. KI-Dienste für Verbraucher strikt reguliert Googles offizielle Richtlinie zur akzeptablen Nutzung der Cloud-Plattform, die verschiedene KI-gesteuerte Produkte umfasst, verfügt allerdings weiterhin über einen Passus, Schäden zu vermeiden. Die Richtlinie verbietet unter anderem die Verletzung von „gesetzlichen Rechten anderer“ und die Beteiligung an oder die Förderung von illegalen Aktivitäten wie „Terrorismus oder Gewalt, die Tod, schwere Schäden oder Verletzungen von Einzelpersonen oder Gruppen von Einzelpersonen verursachen können“. Ehemalige Mitarbeiter zweifeln an Googles Prinzipien Google erklärte auch, dass der Cloud-Computing-Vertrag „Projekt Nimbus“ mit Israel keine militärischen oder geheimdienstlichen Anwendungen umfasst. Hierbei verweist der Techkonzern auf die bestehenden Nutzungsbedingungen von Google Cloud. Ehemalige Google-Mitarbeiter, darunter Timnit Gebru, äußern allerdings Zweifel an Googles Engagement für seine Prinzipien. Gebru kritisiert, dass sich das Unternehmen damit gerne in der Öffentlichkeit schmücke, dann aber oft anders handele. Drei Ex-Mitarbeiter berichten zudem, dass die Durchsetzung der Prinzipien schwierig gewesen wäre, da sie unterschiedlich ausgelegt würden und geschäftliche Interessen oft Vorrang hätten.