Computerhaus Quickborn

So leicht klont KI Ihre Persönlichkeit​

metamorworks – Shutterstock Ein zweistündiges Gespräch mit einem KI-Modell reicht aus, um ein ziemlich genaues Abbild der Persönlichkeit eines echten Menschen zu erstellen. Das haben Wissenschaftler jetzt herausgefunden. Wie die Forscher von Google und der Stanford University in einer aktuellen Studie berichten, basieren die von ihnen generierten „Simulationsagenten“ – im Wesentlichen also KI-Repliken – von 1.052 Personen auf zweistündigen Interviews mit jedem Teilnehmer. Diese Interviews, die auf dem American Voices Project basieren, wurden verwendet, um ein generatives KI-Modell zu trainieren, das menschliches Verhalten nachahmen soll.  Zu 85 Prozent identisch Um anschließend die Genauigkeit der KI-Repliken zu bewerten, absolvierte jeder Teilnehmer zwei Runden mit Persönlichkeitstests, sozialen Umfragen und Logikspielen. Als die KI-Repliken die gleichen Tests absolvierten, stimmten ihre Ergebnisse mit einer Genauigkeit von 85 Prozent mit den Antworten ihrer menschlichen Pendants überein.  Bei der Beantwortung von Fragebögen zur Persönlichkeit unterschieden sich die Antworten der KI-Klone kaum von ihren menschlichen Pendants.  Besonders gut schnitten sie ab, wenn es darum ging, Antworten auf Persönlichkeitsfragebögen zu reproduzieren und soziale Einstellungen zu bestimmen. Weniger genau waren sie dagegen bei der Vorhersage von Verhaltensweisen in interaktiven Spielen, in denen es um wirtschaftliche Entscheidungen ging.   Ersatz für Studien mit menschlichen Probanden  Der Anstoß für die Entwicklung der Simulationsagenten war die Möglichkeit, mit ihnen Studien durchzuführen, die mit echten menschlichen Probanden teuer, unpraktisch oder unethisch wären, erklären die Wissenschaftler. So könnten die KI-Modelle beispielsweise dabei helfen, die Wirksamkeit von Maßnahmen im Bereich der öffentlichen Gesundheit zu bewerten oder die Reaktionen auf Produkteinführungen besser zu verstehen. Selbst die Modellierung von Reaktionen auf wichtige gesellschaftliche Ereignisse wäre denkbar.   „Eine universelle Simulation menschlicher Einstellungen und Verhaltensweisen – bei der jede simulierte Person in einer Reihe von sozialen, politischen oder informativen Kontexten agieren kann – könnte Forschern ein Labor zur Verfügung stellen, in dem sie eine Vielzahl von Interventionen und Theorien testen können“, schreiben die Forscher. Die Wissenschaftler räumen aber auch ein, dass die Technologie missbraucht werden könnte. So könnten die Simulationsagenten dazu verwendet werden, andere Menschen online mit Deepfake-Attacken zu täuschen.  

So leicht klont KI Ihre Persönlichkeit​ metamorworks – Shutterstock Ein zweistündiges Gespräch mit einem KI-Modell reicht aus, um ein ziemlich genaues Abbild der Persönlichkeit eines echten Menschen zu erstellen. Das haben Wissenschaftler jetzt herausgefunden. Wie die Forscher von Google und der Stanford University in einer aktuellen Studie berichten, basieren die von ihnen generierten „Simulationsagenten“ – im Wesentlichen also KI-Repliken – von 1.052 Personen auf zweistündigen Interviews mit jedem Teilnehmer. Diese Interviews, die auf dem American Voices Project basieren, wurden verwendet, um ein generatives KI-Modell zu trainieren, das menschliches Verhalten nachahmen soll.  Zu 85 Prozent identisch Um anschließend die Genauigkeit der KI-Repliken zu bewerten, absolvierte jeder Teilnehmer zwei Runden mit Persönlichkeitstests, sozialen Umfragen und Logikspielen. Als die KI-Repliken die gleichen Tests absolvierten, stimmten ihre Ergebnisse mit einer Genauigkeit von 85 Prozent mit den Antworten ihrer menschlichen Pendants überein.  Bei der Beantwortung von Fragebögen zur Persönlichkeit unterschieden sich die Antworten der KI-Klone kaum von ihren menschlichen Pendants.  Besonders gut schnitten sie ab, wenn es darum ging, Antworten auf Persönlichkeitsfragebögen zu reproduzieren und soziale Einstellungen zu bestimmen. Weniger genau waren sie dagegen bei der Vorhersage von Verhaltensweisen in interaktiven Spielen, in denen es um wirtschaftliche Entscheidungen ging.   Ersatz für Studien mit menschlichen Probanden  Der Anstoß für die Entwicklung der Simulationsagenten war die Möglichkeit, mit ihnen Studien durchzuführen, die mit echten menschlichen Probanden teuer, unpraktisch oder unethisch wären, erklären die Wissenschaftler. So könnten die KI-Modelle beispielsweise dabei helfen, die Wirksamkeit von Maßnahmen im Bereich der öffentlichen Gesundheit zu bewerten oder die Reaktionen auf Produkteinführungen besser zu verstehen. Selbst die Modellierung von Reaktionen auf wichtige gesellschaftliche Ereignisse wäre denkbar.   „Eine universelle Simulation menschlicher Einstellungen und Verhaltensweisen – bei der jede simulierte Person in einer Reihe von sozialen, politischen oder informativen Kontexten agieren kann – könnte Forschern ein Labor zur Verfügung stellen, in dem sie eine Vielzahl von Interventionen und Theorien testen können“, schreiben die Forscher. Die Wissenschaftler räumen aber auch ein, dass die Technologie missbraucht werden könnte. So könnten die Simulationsagenten dazu verwendet werden, andere Menschen online mit Deepfake-Attacken zu täuschen. 

So leicht klont KI Ihre Persönlichkeit​

metamorworks – Shutterstock Ein zweistündiges Gespräch mit einem KI-Modell reicht aus, um ein ziemlich genaues Abbild der Persönlichkeit eines echten Menschen zu erstellen. Das haben Wissenschaftler jetzt herausgefunden. Wie die Forscher von Google und der Stanford University in einer aktuellen Studie berichten, basieren die von ihnen generierten „Simulationsagenten“ – im Wesentlichen also KI-Repliken – von 1.052 Personen auf zweistündigen Interviews mit jedem Teilnehmer. Diese Interviews, die auf dem American Voices Project basieren, wurden verwendet, um ein generatives KI-Modell zu trainieren, das menschliches Verhalten nachahmen soll.  Zu 85 Prozent identisch Um anschließend die Genauigkeit der KI-Repliken zu bewerten, absolvierte jeder Teilnehmer zwei Runden mit Persönlichkeitstests, sozialen Umfragen und Logikspielen. Als die KI-Repliken die gleichen Tests absolvierten, stimmten ihre Ergebnisse mit einer Genauigkeit von 85 Prozent mit den Antworten ihrer menschlichen Pendants überein.  Bei der Beantwortung von Fragebögen zur Persönlichkeit unterschieden sich die Antworten der KI-Klone kaum von ihren menschlichen Pendants.  Besonders gut schnitten sie ab, wenn es darum ging, Antworten auf Persönlichkeitsfragebögen zu reproduzieren und soziale Einstellungen zu bestimmen. Weniger genau waren sie dagegen bei der Vorhersage von Verhaltensweisen in interaktiven Spielen, in denen es um wirtschaftliche Entscheidungen ging.   Ersatz für Studien mit menschlichen Probanden  Der Anstoß für die Entwicklung der Simulationsagenten war die Möglichkeit, mit ihnen Studien durchzuführen, die mit echten menschlichen Probanden teuer, unpraktisch oder unethisch wären, erklären die Wissenschaftler. So könnten die KI-Modelle beispielsweise dabei helfen, die Wirksamkeit von Maßnahmen im Bereich der öffentlichen Gesundheit zu bewerten oder die Reaktionen auf Produkteinführungen besser zu verstehen. Selbst die Modellierung von Reaktionen auf wichtige gesellschaftliche Ereignisse wäre denkbar.   „Eine universelle Simulation menschlicher Einstellungen und Verhaltensweisen – bei der jede simulierte Person in einer Reihe von sozialen, politischen oder informativen Kontexten agieren kann – könnte Forschern ein Labor zur Verfügung stellen, in dem sie eine Vielzahl von Interventionen und Theorien testen können“, schreiben die Forscher. Die Wissenschaftler räumen aber auch ein, dass die Technologie missbraucht werden könnte. So könnten die Simulationsagenten dazu verwendet werden, andere Menschen online mit Deepfake-Attacken zu täuschen.  

Nach oben scrollen