Computerhaus Quickborn

Warum es für KI-Anwendungen klare Richtlinien braucht​

Bei der Nutzung von KI-Tools denken viele Mitarbeiter nicht daran, dass die Daten geschützt sein können.EtiAmmos – shutterstock.com Mal eben noch eine E-Mail an den Kunden mit ChatGPT texten oder den Vertrag für den Geschäftspartner aus Frankreich schnell von DeepL übersetzen lassen: Mitarbeitende ahnen meist nicht, dass sie damit gegen Compliance-Richtlinien oder den Datenschutz verstoßen. Immer mehr Unternehmen bauen eigene KI-Tools, um die Vorteile der Künstlichen Intelligenz datenschutzkonform nutzen zu können. Doch laut einer Umfrage sind vor allem in kleinen und mitteständischen Firmen die beliebtesten KI-Werkzeuge nach wie vor die OpenAI-Anwendung ChatGPT oder das Übersetzungs-Tool DeepL: 68 Prozent der Befragten gaben an, ChatGPT aktiv für die Texterstellung zu nutzen, nur zehn Prozent verwenden KI-Werkzeuge ihres eigenen Unternehmens. Das zeigt der AI Readiness Report, den die KI-Beratung Disruptive und der KI-Spezialist Retresco nach einer Befragung von  81 Geschäftsführern, Führungskräften und Experten erstellt haben. Eine weltweite Umfrage von Microsoft in Zusammenarbeit mit dem Netzwerk LinkedIn kommt zu einem ähnlichen Ergebnis: In Deutschland nutzen 69 Prozent der Wissensarbeiter tagtäglich KI bei der Arbeit; vor allem, wenn sie Zeit sparen wollen oder sich von der Lösung mehr Kreativität erhoffen. Nicolas Schuck sieht in KI vor allem „eine transformative Kraft, die Geschäftsprozesse, Arbeitsabläufe und ganze Industrien revolutionieren kann.“ Der diplomierte Informatiker ist Innovation Manager für Künstliche Intelligenz beim Saarbrücker Lerntechnologieanbieter imc, einem Unternehmen des Scheer Network. Mit einer Reihe von Initiativen will Schuck dafür sorgen, dass alle im Unternehmen verstehen, wie neue Technologien ihre Arbeit und die Firma insgesamt beeinflussen können. Fit für die KI-Regulierung: Die wichtigsten Fragen und Antworten „Bei der Nutzung von KI-Tools wie ChatGPT bedenken viele Mitarbeitende nicht, dass die eingegebenen Daten durch Vertraulichkeitsvereinbarungen geschützt sein können“, gibt Schuck zu bedenken. Auch personenbezogene Daten dürften ohne die Zustimmung der Betroffenen nicht eingegeben werden. Hier sollte, sofern vorhanden, unbedingt auf eine Unternehmensversion zurückgegriffen werden. „In Unternehmensversionen werden Daten weder gespeichert noch zur Modellverbesserung verwendet, was die Sicherheit erhöht und Compliance-Risiken reduziert“, so der Experte. Gefahren frühzeitig erkennen Künstliche Intelligenz birgt neben immensen Chancen also auch potenzielle Risiken. „Hohe Sicherheitsstandards und der Schutz von personenbezogenen Daten sind bei der Arbeit mit KI-Tools in Unternehmen unerlässlich“, so Schuck. Genauso wichtig sei es, auf dem Laufenden zu bleiben, was gesetzliche Vorschriften für den Einsatz von KI angeht. Dieses Jahr haben etwa die EU-Mitgliedstaaten einen einheitlichen Rahmen für den Einsatz von Künstlicher Intelligenz in der Europäischen Union verabschiedet. Seine vollständige Anwendung erfolgt schrittweise über die nächsten Jahre. KI am Arbeitsplatz: Hälfte der Gen-AI-User nutzt unerlaubte Tools Firmen sollten darüber hinaus nicht außer Acht lassen, dass es beim Einsatz von KI-Lösungen zu Verzerrungen kommen kann, die mitberücksichtigt werden müssen: „KI-Modelle können bestehende Vorurteile verstärken, besonders bei automatisierten Entscheidungsprozessen. Es ist daher entscheidend, fortschrittliche Techniken zu nutzen, um diese Risiken zu erkennen und zu mindern“, sagt Schuck. Für das Arbeiten mit KI-Anwendungen hat der Experte für imc ein „KI-Manifest“ entwickelt, beginnend mit einem klaren Rahmen, der die Vision des Unternehmens, ethische Grundsätze und vor allem das Einhalten gesetzlicher und interner Vorschriften festlegt. „Das KI-Manifest dient allen als Wegweiser, es soll sicherstellen, dass jede KI-basierte Funktion im Einklang mit unseren Richtlinien steht, auch Werte wie Transparenz und Fairness sind berücksichtigt.“ Mit seinem KI-Minifest will Nicolas Schuck vom imc Unternehmen einen Wegweiser für den regelkonformen KI-Einsatz an die Hand geben.imc/Schuck privat Diese Basis garantiere, dass KI die Arbeitsabläufe verbessern kann, ohne das Vertrauen von Geschäftspartnern zu gefährden oder gesetzliche Vorgaben zu verletzen. Ein Schlüssel zum Erfolg ist für Schuck das „Enablement der Mitarbeitenden“, was er damit meint: „Es geht darum, Mitarbeitende zu befähigen, mit KI-Anwendungen effizient zu arbeiten – über die reine Technologie hinaus.“ Bei imc liege der Fokus darauf, Beschäftigte zu ermutigen, das volle Potenzial der KI zu erkunden. Das Unternehmen fördert dies durch Workshops, Schulungen und einen KI-Fokus-Monat, der mit internen und externen Vorträgen gefüllt ist. „Ziel ist es, die Leute zu motivieren, selbst zu entdecken, wie sie sich ihre Arbeit mithilfe von KI erleichtern können. Sie sollen daneben ein Verständnis dafür entwickeln, was Künstliche Intelligenz kann, wo ihre Grenzen liegen und wo Gefahren lauern.“ Fünf Regeln für den Einsatz von KI in Unternehmen Schuck empfiehlt Unternehmen beim Einsatz von KI auf folgende Punkte zu achten: Transparenz: Sowohl Mitarbeitende des eigenen Unternehmens als auch Kunden oder Geschäftspartner sollten immer wissen, wann und wie KI eingesetzt wird und wurde. Besonders bei Entscheidungsprozessen ist es wichtig, transparent zu machen, wie automatisierte Lösungen dabei unterstützt haben. Ethischer Einsatz: Es braucht Rahmenbedingungen, die dafür sorgen, dass geltendes Recht und die Datenschutzverordnung respektiert werden. Darüber hinaus sollten KI-Anwendungen so genutzt werden, dass sie Fairness fördern und Verzerrungen vermeiden. Regelmäßige Audits und Dokumentationen: KI-Systeme sollten kontinuierlich überwacht werden, um sicherzustellen, dass sie sowohl internen Richtlinien als auch externen Vorschriften entsprechen. Feedbackschleifen: Um KI-Anwendungen zu verfeinern und auf Bedenken eingehen zu können, sollten Unternehmen kontinuierlich Feedback von Nutzern einholen. Schulungen von Mitarbeitenden: Unabhängig von ihrer Position sollten alle Mitarbeitenden dazu befähigt werden, KI-Tools so zu nutzen, dass sie ihre Arbeit erleichtern. Jeder sollte wissen, wie er oder sie regelkonform mit Anwendungen wie ChatGPT, Midjourney oder DeepL arbeitet, und verstehen, wo die Grenzen der KI liegen. KI-Training muss nicht langweilig sein „Für den Erfolg von KI-Trainings ist es besonders wichtig, dass Mitarbeitende diese nicht als notwendiges Übel empfinden“, betont Schuck. „Je kurzweiliger das Training, desto nachhaltiger verankern sich die Lerninhalte“, lautet sein Credo. Der Experte nennt als Beispiel Deloitte Deutschland. Die Prüfungs- und Beratungsgesellschaft entwickelte mit der imc ein „GenAI Grundlagentraining“. Lernende finden sich nach einem kurzem Einführungsvideo in einem Teams-Call wieder. Zur Diskussion steht die Verwendung generativer KI-Tools in einem fiktiven Projekt. Auch die anderen Teilnehmenden sind fiktiv, dargestellt von 3D-Avataren. Über die Avatare konnte Deloitte die verschiedenen Personas der Zielgruppe abbilden, etwa in Form eines langjährigen Mitarbeiters, der den KI-Hype nicht versteht und sich scheut entsprechende Anwendungen zu nutzen; ein anderer Avatar stellt eine junge Frau dar, die am liebsten nur noch mit generativer KI arbeiten würde. Den inszenierten Teams-Call unterbrechen Schaubilder oder kleine Tests zur Wissensüberprüfung. Zwischen Fortschritt und Verantwortung: Ethische Dimensionen von LLMs Um alle für das digitale Training zu motivieren, gab es im Vorfeld eine große Kommunikationskampagne – inklusive einer E-Mail des CEO. Hohe Nutzungszahlen und positive Rückmeldungen belegen den Erfolg: „Bereits drei Monate nach Einführung zählt das Training zu den erfolgreichsten E-Learnings im Unternehmen“, sagt Astrid Lipphaus, Teil des Learning & Development Teams bei Deloitte. 

Warum es für KI-Anwendungen klare Richtlinien braucht​ Bei der Nutzung von KI-Tools denken viele Mitarbeiter nicht daran, dass die Daten geschützt sein können.EtiAmmos – shutterstock.com Mal eben noch eine E-Mail an den Kunden mit ChatGPT texten oder den Vertrag für den Geschäftspartner aus Frankreich schnell von DeepL übersetzen lassen: Mitarbeitende ahnen meist nicht, dass sie damit gegen Compliance-Richtlinien oder den Datenschutz verstoßen. Immer mehr Unternehmen bauen eigene KI-Tools, um die Vorteile der Künstlichen Intelligenz datenschutzkonform nutzen zu können. Doch laut einer Umfrage sind vor allem in kleinen und mitteständischen Firmen die beliebtesten KI-Werkzeuge nach wie vor die OpenAI-Anwendung ChatGPT oder das Übersetzungs-Tool DeepL: 68 Prozent der Befragten gaben an, ChatGPT aktiv für die Texterstellung zu nutzen, nur zehn Prozent verwenden KI-Werkzeuge ihres eigenen Unternehmens. Das zeigt der AI Readiness Report, den die KI-Beratung Disruptive und der KI-Spezialist Retresco nach einer Befragung von  81 Geschäftsführern, Führungskräften und Experten erstellt haben. Eine weltweite Umfrage von Microsoft in Zusammenarbeit mit dem Netzwerk LinkedIn kommt zu einem ähnlichen Ergebnis: In Deutschland nutzen 69 Prozent der Wissensarbeiter tagtäglich KI bei der Arbeit; vor allem, wenn sie Zeit sparen wollen oder sich von der Lösung mehr Kreativität erhoffen. Nicolas Schuck sieht in KI vor allem „eine transformative Kraft, die Geschäftsprozesse, Arbeitsabläufe und ganze Industrien revolutionieren kann.“ Der diplomierte Informatiker ist Innovation Manager für Künstliche Intelligenz beim Saarbrücker Lerntechnologieanbieter imc, einem Unternehmen des Scheer Network. Mit einer Reihe von Initiativen will Schuck dafür sorgen, dass alle im Unternehmen verstehen, wie neue Technologien ihre Arbeit und die Firma insgesamt beeinflussen können. Fit für die KI-Regulierung: Die wichtigsten Fragen und Antworten „Bei der Nutzung von KI-Tools wie ChatGPT bedenken viele Mitarbeitende nicht, dass die eingegebenen Daten durch Vertraulichkeitsvereinbarungen geschützt sein können“, gibt Schuck zu bedenken. Auch personenbezogene Daten dürften ohne die Zustimmung der Betroffenen nicht eingegeben werden. Hier sollte, sofern vorhanden, unbedingt auf eine Unternehmensversion zurückgegriffen werden. „In Unternehmensversionen werden Daten weder gespeichert noch zur Modellverbesserung verwendet, was die Sicherheit erhöht und Compliance-Risiken reduziert“, so der Experte. Gefahren frühzeitig erkennen Künstliche Intelligenz birgt neben immensen Chancen also auch potenzielle Risiken. „Hohe Sicherheitsstandards und der Schutz von personenbezogenen Daten sind bei der Arbeit mit KI-Tools in Unternehmen unerlässlich“, so Schuck. Genauso wichtig sei es, auf dem Laufenden zu bleiben, was gesetzliche Vorschriften für den Einsatz von KI angeht. Dieses Jahr haben etwa die EU-Mitgliedstaaten einen einheitlichen Rahmen für den Einsatz von Künstlicher Intelligenz in der Europäischen Union verabschiedet. Seine vollständige Anwendung erfolgt schrittweise über die nächsten Jahre. KI am Arbeitsplatz: Hälfte der Gen-AI-User nutzt unerlaubte Tools Firmen sollten darüber hinaus nicht außer Acht lassen, dass es beim Einsatz von KI-Lösungen zu Verzerrungen kommen kann, die mitberücksichtigt werden müssen: „KI-Modelle können bestehende Vorurteile verstärken, besonders bei automatisierten Entscheidungsprozessen. Es ist daher entscheidend, fortschrittliche Techniken zu nutzen, um diese Risiken zu erkennen und zu mindern“, sagt Schuck. Für das Arbeiten mit KI-Anwendungen hat der Experte für imc ein „KI-Manifest“ entwickelt, beginnend mit einem klaren Rahmen, der die Vision des Unternehmens, ethische Grundsätze und vor allem das Einhalten gesetzlicher und interner Vorschriften festlegt. „Das KI-Manifest dient allen als Wegweiser, es soll sicherstellen, dass jede KI-basierte Funktion im Einklang mit unseren Richtlinien steht, auch Werte wie Transparenz und Fairness sind berücksichtigt.“ Mit seinem KI-Minifest will Nicolas Schuck vom imc Unternehmen einen Wegweiser für den regelkonformen KI-Einsatz an die Hand geben.imc/Schuck privat Diese Basis garantiere, dass KI die Arbeitsabläufe verbessern kann, ohne das Vertrauen von Geschäftspartnern zu gefährden oder gesetzliche Vorgaben zu verletzen. Ein Schlüssel zum Erfolg ist für Schuck das „Enablement der Mitarbeitenden“, was er damit meint: „Es geht darum, Mitarbeitende zu befähigen, mit KI-Anwendungen effizient zu arbeiten – über die reine Technologie hinaus.“ Bei imc liege der Fokus darauf, Beschäftigte zu ermutigen, das volle Potenzial der KI zu erkunden. Das Unternehmen fördert dies durch Workshops, Schulungen und einen KI-Fokus-Monat, der mit internen und externen Vorträgen gefüllt ist. „Ziel ist es, die Leute zu motivieren, selbst zu entdecken, wie sie sich ihre Arbeit mithilfe von KI erleichtern können. Sie sollen daneben ein Verständnis dafür entwickeln, was Künstliche Intelligenz kann, wo ihre Grenzen liegen und wo Gefahren lauern.“ Fünf Regeln für den Einsatz von KI in Unternehmen Schuck empfiehlt Unternehmen beim Einsatz von KI auf folgende Punkte zu achten: Transparenz: Sowohl Mitarbeitende des eigenen Unternehmens als auch Kunden oder Geschäftspartner sollten immer wissen, wann und wie KI eingesetzt wird und wurde. Besonders bei Entscheidungsprozessen ist es wichtig, transparent zu machen, wie automatisierte Lösungen dabei unterstützt haben. Ethischer Einsatz: Es braucht Rahmenbedingungen, die dafür sorgen, dass geltendes Recht und die Datenschutzverordnung respektiert werden. Darüber hinaus sollten KI-Anwendungen so genutzt werden, dass sie Fairness fördern und Verzerrungen vermeiden. Regelmäßige Audits und Dokumentationen: KI-Systeme sollten kontinuierlich überwacht werden, um sicherzustellen, dass sie sowohl internen Richtlinien als auch externen Vorschriften entsprechen. Feedbackschleifen: Um KI-Anwendungen zu verfeinern und auf Bedenken eingehen zu können, sollten Unternehmen kontinuierlich Feedback von Nutzern einholen. Schulungen von Mitarbeitenden: Unabhängig von ihrer Position sollten alle Mitarbeitenden dazu befähigt werden, KI-Tools so zu nutzen, dass sie ihre Arbeit erleichtern. Jeder sollte wissen, wie er oder sie regelkonform mit Anwendungen wie ChatGPT, Midjourney oder DeepL arbeitet, und verstehen, wo die Grenzen der KI liegen. KI-Training muss nicht langweilig sein „Für den Erfolg von KI-Trainings ist es besonders wichtig, dass Mitarbeitende diese nicht als notwendiges Übel empfinden“, betont Schuck. „Je kurzweiliger das Training, desto nachhaltiger verankern sich die Lerninhalte“, lautet sein Credo. Der Experte nennt als Beispiel Deloitte Deutschland. Die Prüfungs- und Beratungsgesellschaft entwickelte mit der imc ein „GenAI Grundlagentraining“. Lernende finden sich nach einem kurzem Einführungsvideo in einem Teams-Call wieder. Zur Diskussion steht die Verwendung generativer KI-Tools in einem fiktiven Projekt. Auch die anderen Teilnehmenden sind fiktiv, dargestellt von 3D-Avataren. Über die Avatare konnte Deloitte die verschiedenen Personas der Zielgruppe abbilden, etwa in Form eines langjährigen Mitarbeiters, der den KI-Hype nicht versteht und sich scheut entsprechende Anwendungen zu nutzen; ein anderer Avatar stellt eine junge Frau dar, die am liebsten nur noch mit generativer KI arbeiten würde. Den inszenierten Teams-Call unterbrechen Schaubilder oder kleine Tests zur Wissensüberprüfung. Zwischen Fortschritt und Verantwortung: Ethische Dimensionen von LLMs Um alle für das digitale Training zu motivieren, gab es im Vorfeld eine große Kommunikationskampagne – inklusive einer E-Mail des CEO. Hohe Nutzungszahlen und positive Rückmeldungen belegen den Erfolg: „Bereits drei Monate nach Einführung zählt das Training zu den erfolgreichsten E-Learnings im Unternehmen“, sagt Astrid Lipphaus, Teil des Learning & Development Teams bei Deloitte.

Warum es für KI-Anwendungen klare Richtlinien braucht​

Bei der Nutzung von KI-Tools denken viele Mitarbeiter nicht daran, dass die Daten geschützt sein können.EtiAmmos – shutterstock.com Mal eben noch eine E-Mail an den Kunden mit ChatGPT texten oder den Vertrag für den Geschäftspartner aus Frankreich schnell von DeepL übersetzen lassen: Mitarbeitende ahnen meist nicht, dass sie damit gegen Compliance-Richtlinien oder den Datenschutz verstoßen. Immer mehr Unternehmen bauen eigene KI-Tools, um die Vorteile der Künstlichen Intelligenz datenschutzkonform nutzen zu können. Doch laut einer Umfrage sind vor allem in kleinen und mitteständischen Firmen die beliebtesten KI-Werkzeuge nach wie vor die OpenAI-Anwendung ChatGPT oder das Übersetzungs-Tool DeepL: 68 Prozent der Befragten gaben an, ChatGPT aktiv für die Texterstellung zu nutzen, nur zehn Prozent verwenden KI-Werkzeuge ihres eigenen Unternehmens. Das zeigt der AI Readiness Report, den die KI-Beratung Disruptive und der KI-Spezialist Retresco nach einer Befragung von  81 Geschäftsführern, Führungskräften und Experten erstellt haben. Eine weltweite Umfrage von Microsoft in Zusammenarbeit mit dem Netzwerk LinkedIn kommt zu einem ähnlichen Ergebnis: In Deutschland nutzen 69 Prozent der Wissensarbeiter tagtäglich KI bei der Arbeit; vor allem, wenn sie Zeit sparen wollen oder sich von der Lösung mehr Kreativität erhoffen. Nicolas Schuck sieht in KI vor allem „eine transformative Kraft, die Geschäftsprozesse, Arbeitsabläufe und ganze Industrien revolutionieren kann.“ Der diplomierte Informatiker ist Innovation Manager für Künstliche Intelligenz beim Saarbrücker Lerntechnologieanbieter imc, einem Unternehmen des Scheer Network. Mit einer Reihe von Initiativen will Schuck dafür sorgen, dass alle im Unternehmen verstehen, wie neue Technologien ihre Arbeit und die Firma insgesamt beeinflussen können. Fit für die KI-Regulierung: Die wichtigsten Fragen und Antworten „Bei der Nutzung von KI-Tools wie ChatGPT bedenken viele Mitarbeitende nicht, dass die eingegebenen Daten durch Vertraulichkeitsvereinbarungen geschützt sein können“, gibt Schuck zu bedenken. Auch personenbezogene Daten dürften ohne die Zustimmung der Betroffenen nicht eingegeben werden. Hier sollte, sofern vorhanden, unbedingt auf eine Unternehmensversion zurückgegriffen werden. „In Unternehmensversionen werden Daten weder gespeichert noch zur Modellverbesserung verwendet, was die Sicherheit erhöht und Compliance-Risiken reduziert“, so der Experte. Gefahren frühzeitig erkennen Künstliche Intelligenz birgt neben immensen Chancen also auch potenzielle Risiken. „Hohe Sicherheitsstandards und der Schutz von personenbezogenen Daten sind bei der Arbeit mit KI-Tools in Unternehmen unerlässlich“, so Schuck. Genauso wichtig sei es, auf dem Laufenden zu bleiben, was gesetzliche Vorschriften für den Einsatz von KI angeht. Dieses Jahr haben etwa die EU-Mitgliedstaaten einen einheitlichen Rahmen für den Einsatz von Künstlicher Intelligenz in der Europäischen Union verabschiedet. Seine vollständige Anwendung erfolgt schrittweise über die nächsten Jahre. KI am Arbeitsplatz: Hälfte der Gen-AI-User nutzt unerlaubte Tools Firmen sollten darüber hinaus nicht außer Acht lassen, dass es beim Einsatz von KI-Lösungen zu Verzerrungen kommen kann, die mitberücksichtigt werden müssen: „KI-Modelle können bestehende Vorurteile verstärken, besonders bei automatisierten Entscheidungsprozessen. Es ist daher entscheidend, fortschrittliche Techniken zu nutzen, um diese Risiken zu erkennen und zu mindern“, sagt Schuck. Für das Arbeiten mit KI-Anwendungen hat der Experte für imc ein „KI-Manifest“ entwickelt, beginnend mit einem klaren Rahmen, der die Vision des Unternehmens, ethische Grundsätze und vor allem das Einhalten gesetzlicher und interner Vorschriften festlegt. „Das KI-Manifest dient allen als Wegweiser, es soll sicherstellen, dass jede KI-basierte Funktion im Einklang mit unseren Richtlinien steht, auch Werte wie Transparenz und Fairness sind berücksichtigt.“ Mit seinem KI-Minifest will Nicolas Schuck vom imc Unternehmen einen Wegweiser für den regelkonformen KI-Einsatz an die Hand geben.imc/Schuck privat Diese Basis garantiere, dass KI die Arbeitsabläufe verbessern kann, ohne das Vertrauen von Geschäftspartnern zu gefährden oder gesetzliche Vorgaben zu verletzen. Ein Schlüssel zum Erfolg ist für Schuck das „Enablement der Mitarbeitenden“, was er damit meint: „Es geht darum, Mitarbeitende zu befähigen, mit KI-Anwendungen effizient zu arbeiten – über die reine Technologie hinaus.“ Bei imc liege der Fokus darauf, Beschäftigte zu ermutigen, das volle Potenzial der KI zu erkunden. Das Unternehmen fördert dies durch Workshops, Schulungen und einen KI-Fokus-Monat, der mit internen und externen Vorträgen gefüllt ist. „Ziel ist es, die Leute zu motivieren, selbst zu entdecken, wie sie sich ihre Arbeit mithilfe von KI erleichtern können. Sie sollen daneben ein Verständnis dafür entwickeln, was Künstliche Intelligenz kann, wo ihre Grenzen liegen und wo Gefahren lauern.“ Fünf Regeln für den Einsatz von KI in Unternehmen Schuck empfiehlt Unternehmen beim Einsatz von KI auf folgende Punkte zu achten: Transparenz: Sowohl Mitarbeitende des eigenen Unternehmens als auch Kunden oder Geschäftspartner sollten immer wissen, wann und wie KI eingesetzt wird und wurde. Besonders bei Entscheidungsprozessen ist es wichtig, transparent zu machen, wie automatisierte Lösungen dabei unterstützt haben. Ethischer Einsatz: Es braucht Rahmenbedingungen, die dafür sorgen, dass geltendes Recht und die Datenschutzverordnung respektiert werden. Darüber hinaus sollten KI-Anwendungen so genutzt werden, dass sie Fairness fördern und Verzerrungen vermeiden. Regelmäßige Audits und Dokumentationen: KI-Systeme sollten kontinuierlich überwacht werden, um sicherzustellen, dass sie sowohl internen Richtlinien als auch externen Vorschriften entsprechen. Feedbackschleifen: Um KI-Anwendungen zu verfeinern und auf Bedenken eingehen zu können, sollten Unternehmen kontinuierlich Feedback von Nutzern einholen. Schulungen von Mitarbeitenden: Unabhängig von ihrer Position sollten alle Mitarbeitenden dazu befähigt werden, KI-Tools so zu nutzen, dass sie ihre Arbeit erleichtern. Jeder sollte wissen, wie er oder sie regelkonform mit Anwendungen wie ChatGPT, Midjourney oder DeepL arbeitet, und verstehen, wo die Grenzen der KI liegen. KI-Training muss nicht langweilig sein „Für den Erfolg von KI-Trainings ist es besonders wichtig, dass Mitarbeitende diese nicht als notwendiges Übel empfinden“, betont Schuck. „Je kurzweiliger das Training, desto nachhaltiger verankern sich die Lerninhalte“, lautet sein Credo. Der Experte nennt als Beispiel Deloitte Deutschland. Die Prüfungs- und Beratungsgesellschaft entwickelte mit der imc ein „GenAI Grundlagentraining“. Lernende finden sich nach einem kurzem Einführungsvideo in einem Teams-Call wieder. Zur Diskussion steht die Verwendung generativer KI-Tools in einem fiktiven Projekt. Auch die anderen Teilnehmenden sind fiktiv, dargestellt von 3D-Avataren. Über die Avatare konnte Deloitte die verschiedenen Personas der Zielgruppe abbilden, etwa in Form eines langjährigen Mitarbeiters, der den KI-Hype nicht versteht und sich scheut entsprechende Anwendungen zu nutzen; ein anderer Avatar stellt eine junge Frau dar, die am liebsten nur noch mit generativer KI arbeiten würde. Den inszenierten Teams-Call unterbrechen Schaubilder oder kleine Tests zur Wissensüberprüfung. Zwischen Fortschritt und Verantwortung: Ethische Dimensionen von LLMs Um alle für das digitale Training zu motivieren, gab es im Vorfeld eine große Kommunikationskampagne – inklusive einer E-Mail des CEO. Hohe Nutzungszahlen und positive Rückmeldungen belegen den Erfolg: „Bereits drei Monate nach Einführung zählt das Training zu den erfolgreichsten E-Learnings im Unternehmen“, sagt Astrid Lipphaus, Teil des Learning & Development Teams bei Deloitte. 

Nach oben scrollen