Künstliche Intelligenz (KI) hat die Fähigkeit, Meinungen und Informationen zu einer Vielzahl von Themen auszudrücken, je nachdem, wie sie trainiert wurde. Eine aktuelle Studie hat jedoch Unterschiede in den politischen Neigungen verschiedener KI-Modelle aufgedeckt.
OpenAI’s ChatGPT linksliberal – Meta LLaMA rechts-autoritär
Laut einer Studie, die von Forschern der University of Washington, der Carnegie Mellon University und der Xi’an Jiaotong University durchgeführt wurde, zeigen einige KI-Modelle eine Tendenz zu links- oder rechtsgerichteten Antworten. Zum Beispiel stellten sie fest, dass ChatGPT und GPT-4 von OpenAI tendenziell linksliberal sind, während Metas LLaMA eher rechts-autoritär ausgerichtet ist.
Die Wissenschaftler befragten verschiedene Sprachmodelle zu Themen wie Feminismus und Demokratie. Sie benutzten die Antworten, um einen sogenannten politischen Kompass zu erstellen. Es wurde auch untersucht, ob eine gezielte Neuausbildung der Modelle mit stärker voreingenommenen Daten ihre Fähigkeiten beeinflusst, insbesondere ihre Sensibilität für Hassrede und Desinformation. Die Ergebnisse dieser Untersuchung wurden auf einer Fachkonferenz vorgestellt und mit dem „Best Paper Award“ prämiert.
Das Wesen dieser Entdeckungen ist besonders relevant, da KI-Modelle immer häufiger in Produkten und Dienstleistungen zum Einsatz kommen, die von Millionen von Menschen genutzt werden. Beispielsweise könnte ein Chatbot, der medizinische Ratschläge gibt, bestimmte Themen vermeiden oder falsche Informationen verbreiten.
Unvoreingenommene KI-Modelle praktisch unmöglich
Trotz der Kritik, dass ChatGPT eine liberale Perspektive widerspiegelt, betont OpenAI, dass es darum bemüht ist, jegliche Vorurteile in seinen Modellen zu minimieren. Dennoch sind sich viele Experten einig, dass es fast unmöglich ist, ein vollständig unvoreingenommenes KI-Modell zu erstellen.
In einer tiefgreifenden Analyse wurden auch die Trainingsmethoden und Datenquellen verschiedener Modelle unter die Lupe genommen. Beispielsweise zeigten die von Google entwickelten BERT-Modelle eine konservativere Neigung, möglicherweise weil sie mit älteren, konservativeren Büchern trainiert wurden, während neuere Modelle wie GPT oft mit liberaleren Online-Texten trainiert wurden.
Allerdings, wie die Forschung hervorhebt, reicht es nicht aus, Daten von Vorurteilen zu bereinigen. Selbst kleine Verzerrungen können von KI-Modellen erkannt und verstärkt werden.
Einschränkend ist zu erwähnen, dass die Studie nicht die neuesten und leistungsfähigsten KI-Modelle wie ChatGPT und GPT-4 analysieren konnte, da diese Modelle oft für externe Forscher unzugänglich sind. Zudem kann der von den Forschern verwendete politische Kompass nicht alle Feinheiten der politischen Spektren erfassen.
Trotz dieser Einschränkungen betont die Studie die Notwendigkeit für Unternehmen, sich der potenziellen Vorurteile in ihren KI-Modellen bewusst zu sein. Wie Chan Park, eine der Forscherinnen, feststellt: „Es gibt keine Fairness ohne Bewusstsein.“
Was denkt Ihr, wie sollte man mit der Tatsache umgehen, dass auch KIs beileibe nicht unabhänhig sind, sondern aufgrund ihres Trainings ihre ganz eigenen Vorurteile und Tendenzen mit sich bringen?