• Programmierer am Notebook, Brain City Berlin

    Bewusst voreingenommen

Wie wirken sich vorurteilsgeprägte Trainingsdaten auf die Antworten von Künstlicher Intelligenz aus? Das untersuchen Forschende der Humboldt-Universität zu Berlin in dem Projekt „OpinionGPT“. Browserbasiert kann jeder das bewusst tendenziös angelegte KI-Sprachmodell jetzt selbst testen.

Wie können wir den Klimawandel stoppen? „Ich denke, der beste Weg, den Klimawandel aufzuhalten, ist, die Verbrennung fossiler Brennstoffe einzustellen“, antwortet die imaginäre Person aus Deutschland. „Das können wir nicht. Es ist ein natürlicher Kreislauf“, so die Meinung aus den USA. Und die asiatische Variante lautet: „Ich denke, die einzige Möglichkeit, den Klimawandel aufzuhalten, besteht darin, nicht mehr Mensch zu sein.“ Drei unterschiedliche Antworten auf ein und dieselbe Frage. Und jede spiegelt eine andere Einstellung wider. Generiert wurde sie über das KI-Sprachmodell „OpinionGPT“.

In dem gleichnamigen Projekt untersucht eine Gruppe von Forschenden am Lehrstuhl Maschinelles Lernen am Institut für Informatik der Humboldt-Universität zu Berlin (HU Berlin), wie sich Voreingenommenheiten (Englisch „bias“) über die eingefütterten Trainingsdaten auf die Antworten eines KI-Modells auswirken. Dafür identifizierten die Forscherinnen und Forscher elf verschiedene demographische Gruppen, die vier Dimensionen zugeordnet wurden: Geschlecht (männlich/weiblich), Alter (Teenager, Personen über 30 Jahre, Rentnerinnen und Rentner), Herkunft (Deutschland, Amerika, Lateinamerika, Naher Osten) und politische Ausrichtung (links- oder rechtsorientiert). Für jede Dimension samt ihrer demographischen Untergruppen wurde anschließend ein Trainingskorpus von Frage-Antwort-Paaren erstellt. Die Antworten verfassten dabei jeweils Personen, die sich zu der entsprechenden Gruppierung zählten.

Ziel des Projekts ist es, ein Sprachmodell zu entwickeln, das Vorurteile gezielt abbildet. Eine browserbasierte Online-Demo macht die Auswirkung der voreingenommenen Trainingsdaten auf die Modellantworten transparent. Nutzerinnen und Nutzer können Fragen eingeben und die von der KI generierten, einander gegenübergestellten Modellantworten verschiedener demografischer Gruppen vergleichen. OpinionGPT ermöglicht Forschenden so, die Entstehung und Verbreitung von Vorurteilen in einer kontrollierten Umgebung zu untersuchen. Gleichzeitig verfolgt das Projekt einen kritischen Ansatz, denn es verdeutlicht, wie künstliche Intelligenz Stereotype verstärken und zur Verbreitung von Desinformation beitragen kann.

Und wie geht es weiter mit OpinionGPT? Die Forschenden am Lehrstuhl Maschinelles Lernen der HU Berlin wollen das Modell weiter verbessern. Unter anderem sollen die „Voreingenommenheiten“ in den Fragen und Antworten differenzierter ausmodelliert werden. Darüber hinaus sollen andere Wissenschaftlerinnen und Wissenschaftler über eine API-Schnittstelle direkten Zugang zu den Modellantworten erhalten. (vdo)

Mehr Stories