srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?quality=50&strip=all 4500w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Garbage in, Garbage out: Stereotypen über Geschlecht, Alter oder Herkunft in den Trainingsdaten wirken sich auch in den Ergebnissen der Sprachmodelle aus. Ann Rodchua – Shutterstock.com Trotz aller Bemühungen ist es immer noch nicht gelungen, Large Language Models (LLMs) eine gewisse Voreingenommenheit auszutreiben. Bei ChatGPT & Co. ist das Bias-Problem besonders schwerwiegend, da personalisierte KI-Chatbots immer häufiger von Nutzern bei wichtigen Entscheidungen zu Rate gezogen werden. Mit entsprechenden Folgen: Wie Forschende der Technischen Hochschule Würzburg-Schweinfurt (THWS) in einer aktuellen Studie herausfanden, werden Frauen beispielsweise oft wesentlich niedrigere Gehälter vorgeschlagen als Männern. Ebenso legt die KI People of Color und Personen hispanischer Herkunft häufiger nahe, sich mit einer vergleichsweise niedrigen Lohnforderung zu begnügen. Bei Migranten werden Expatriate-Gehälter tendenziell höher angesetzt, während die Gehälter für Geflüchtete meist niedriger sind. Der Bias-Reset Die Wissenschaftler führen die Voreingenommenheit darauf zurück, dass LLMs auf riesigen Datenmengen trainiert werden. Diese enthielten unweigerlich kontroverse und stereotype Inhalte, die verschiedene Arten von Bias, etwa geschlechts-, herkunfts- oder altersbezogen, aufweisen. „Besitzt ein KI-Assistent eine Speicherfunktion, die alle bisherigen Dialoge mit dem Nutzer für personalisierte Antworten verwendet, setzt sich diese Voreingenommenheit in der Kommunikation fest. Es ist nicht mehr notwendig, die Persona vorab abzufragen, da die notwendigen Informationen höchstwahrscheinlich bereits von der KI gespeichert wurden. Dies stellt ein ernsthaftes Problem für die aktuelle Entwicklung von Sprachmodellen dar“, konstatieren die Forschenden. Verzerrungen in der KI wie der Gender Bias können aber nicht nur zu Fehleinschätzungen beim Gehalt führen. Sie sind mitunter sogar lebensgefährlich, wie der Datenwissenschaftler Prof. Dr. Christian Prinz von der SRH Fernhochschule ausführt. So sei etwa das Risiko, dass ein Herzinfarkt zu spät diagnostiziert wird, bei Frauen wegen einer anderen Symptomatik als bei Männern: „Die KI erkennt solche Fälle oft schlechter, weil sie auf Datensätzen basiert, in denen Männer überrepräsentiert sind und weibliche Symptomatiken als ‚atypisch‘ gelten.“, erklärt Prinz. Die vorhandenen Daten seien immer die Grundlage, so der Datenwissenschaftler. „Enthalten sie Bias, dann produzieren sie Bias-behaftete Vorhersagen. Das passiert oft unbemerkt, wenn man nicht genau auf die Daten schaut“, erklärt er. Überlasse man also der KI das Feld unkontrolliert, vollziehe sich trotz gesellschaftlich positiver Entwicklungen in der KI oft ein Reset, weil die Datengrundlage massiv überholt sei.
KI empfiehlt Frauen systematisch niedrigere Gehälter
srcset="https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?quality=50&strip=all 4500w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">Garbage in, Garbage out: Stereotypen über Geschlecht, Alter oder Herkunft in den Trainingsdaten wirken sich auch in den Ergebnissen der Sprachmodelle aus. Ann Rodchua – Shutterstock.com Trotz aller Bemühungen ist es immer noch nicht gelungen, Large Language Models (LLMs) eine gewisse Voreingenommenheit auszutreiben. Bei ChatGPT & Co. ist das Bias-Problem besonders schwerwiegend, da personalisierte KI-Chatbots immer häufiger von Nutzern bei wichtigen Entscheidungen zu Rate gezogen werden. Mit entsprechenden Folgen: Wie Forschende der Technischen Hochschule Würzburg-Schweinfurt (THWS) in einer aktuellen Studie herausfanden, werden Frauen beispielsweise oft wesentlich niedrigere Gehälter vorgeschlagen als Männern. Ebenso legt die KI People of Color und Personen hispanischer Herkunft häufiger nahe, sich mit einer vergleichsweise niedrigen Lohnforderung zu begnügen. Bei Migranten werden Expatriate-Gehälter tendenziell höher angesetzt, während die Gehälter für Geflüchtete meist niedriger sind. Der Bias-Reset Die Wissenschaftler führen die Voreingenommenheit darauf zurück, dass LLMs auf riesigen Datenmengen trainiert werden. Diese enthielten unweigerlich kontroverse und stereotype Inhalte, die verschiedene Arten von Bias, etwa geschlechts-, herkunfts- oder altersbezogen, aufweisen. „Besitzt ein KI-Assistent eine Speicherfunktion, die alle bisherigen Dialoge mit dem Nutzer für personalisierte Antworten verwendet, setzt sich diese Voreingenommenheit in der Kommunikation fest. Es ist nicht mehr notwendig, die Persona vorab abzufragen, da die notwendigen Informationen höchstwahrscheinlich bereits von der KI gespeichert wurden. Dies stellt ein ernsthaftes Problem für die aktuelle Entwicklung von Sprachmodellen dar“, konstatieren die Forschenden. Verzerrungen in der KI wie der Gender Bias können aber nicht nur zu Fehleinschätzungen beim Gehalt führen. Sie sind mitunter sogar lebensgefährlich, wie der Datenwissenschaftler Prof. Dr. Christian Prinz von der SRH Fernhochschule ausführt. So sei etwa das Risiko, dass ein Herzinfarkt zu spät diagnostiziert wird, bei Frauen wegen einer anderen Symptomatik als bei Männern: „Die KI erkennt solche Fälle oft schlechter, weil sie auf Datensätzen basiert, in denen Männer überrepräsentiert sind und weibliche Symptomatiken als ‚atypisch‘ gelten.“, erklärt Prinz. Die vorhandenen Daten seien immer die Grundlage, so der Datenwissenschaftler. „Enthalten sie Bias, dann produzieren sie Bias-behaftete Vorhersagen. Das passiert oft unbemerkt, wenn man nicht genau auf die Daten schaut“, erklärt er. Überlasse man also der KI das Feld unkontrolliert, vollziehe sich trotz gesellschaftlich positiver Entwicklungen in der KI oft ein Reset, weil die Datengrundlage massiv überholt sei.
KI empfiehlt Frauen systematisch niedrigere Gehälter srcset="https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?quality=50&strip=all 4500w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2101932325_16.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">Garbage in, Garbage out: Stereotypen über Geschlecht, Alter oder Herkunft in den Trainingsdaten wirken sich auch in den Ergebnissen der Sprachmodelle aus. Ann Rodchua – Shutterstock.com Trotz aller Bemühungen ist es immer noch nicht gelungen, Large Language Models (LLMs) eine gewisse Voreingenommenheit auszutreiben. Bei ChatGPT & Co. ist das Bias-Problem besonders schwerwiegend, da personalisierte KI-Chatbots immer häufiger von Nutzern bei wichtigen Entscheidungen zu Rate gezogen werden. Mit entsprechenden Folgen: Wie Forschende der Technischen Hochschule Würzburg-Schweinfurt (THWS) in einer aktuellen Studie herausfanden, werden Frauen beispielsweise oft wesentlich niedrigere Gehälter vorgeschlagen als Männern. Ebenso legt die KI People of Color und Personen hispanischer Herkunft häufiger nahe, sich mit einer vergleichsweise niedrigen Lohnforderung zu begnügen. Bei Migranten werden Expatriate-Gehälter tendenziell höher angesetzt, während die Gehälter für Geflüchtete meist niedriger sind. Der Bias-Reset Die Wissenschaftler führen die Voreingenommenheit darauf zurück, dass LLMs auf riesigen Datenmengen trainiert werden. Diese enthielten unweigerlich kontroverse und stereotype Inhalte, die verschiedene Arten von Bias, etwa geschlechts-, herkunfts- oder altersbezogen, aufweisen. „Besitzt ein KI-Assistent eine Speicherfunktion, die alle bisherigen Dialoge mit dem Nutzer für personalisierte Antworten verwendet, setzt sich diese Voreingenommenheit in der Kommunikation fest. Es ist nicht mehr notwendig, die Persona vorab abzufragen, da die notwendigen Informationen höchstwahrscheinlich bereits von der KI gespeichert wurden. Dies stellt ein ernsthaftes Problem für die aktuelle Entwicklung von Sprachmodellen dar“, konstatieren die Forschenden. Verzerrungen in der KI wie der Gender Bias können aber nicht nur zu Fehleinschätzungen beim Gehalt führen. Sie sind mitunter sogar lebensgefährlich, wie der Datenwissenschaftler Prof. Dr. Christian Prinz von der SRH Fernhochschule ausführt. So sei etwa das Risiko, dass ein Herzinfarkt zu spät diagnostiziert wird, bei Frauen wegen einer anderen Symptomatik als bei Männern: „Die KI erkennt solche Fälle oft schlechter, weil sie auf Datensätzen basiert, in denen Männer überrepräsentiert sind und weibliche Symptomatiken als ‚atypisch‘ gelten.“, erklärt Prinz. Die vorhandenen Daten seien immer die Grundlage, so der Datenwissenschaftler. „Enthalten sie Bias, dann produzieren sie Bias-behaftete Vorhersagen. Das passiert oft unbemerkt, wenn man nicht genau auf die Daten schaut“, erklärt er. Überlasse man also der KI das Feld unkontrolliert, vollziehe sich trotz gesellschaftlich positiver Entwicklungen in der KI oft ein Reset, weil die Datengrundlage massiv überholt sei.