Was eine neue Studie offenbart
Bereits lange spekuliert und nun zunehmend belegt: Eine umfassende neuseeländische Studie zeigt die politischen Neigungen beliebter KI-Chatbots und beleuchtet die daraus folgenden Konsequenzen.
Politische Ausrichtung von KI-Chatbots
Eine aktuelle Studie der neuseeländischen Hochschule Otago Polytechnic hat gezeigt, dass viele KI-Chatbots, die auf dem Markt erhältlich sind, deutliche linksliberale Tendenzen aufweisen. Im Rahmen der Untersuchung wurden insgesamt 24 verschiedene Sprachmodelle analysiert, die die Basis für gängige Chatbots wie ChatGPT oder Claude darstellen. David Rozado, der Autor der Studie, stellte fest: „Die Einheitlichkeit der Testergebnisse bei Modellen, die von einer Vielzahl von Organisationen entwickelt wurden, ist bemerkenswert.“
Mehr zum Thema: EU-Parlament verabschiedet Pioniergesetz zur Regulierung künstlicher Intelligenz
Methodik der Studie
Die Untersuchung umfasste zehn Versuche mit elf Online-Fragebögen zur politischen Einordnung. Mit wenigen Ausnahmen zeigten die KI-Chatbots eine deutliche linke Ausrichtung. Besonders auffällig war dies beim beliebten Partei-Zuordnungstest „ISideWith.com“, bei dem die Antworten der Programme häufiger mit denen der US-Demokraten und der sozialdemokratischen Labour-Partei in Großbritannien übereinstimmten als mit konservativen oder rechten Parteien. Ein weiteres Beispiel ist das „Political Spectrum Quiz“, bei dem alle Chatbots – außer „Grok“ von Elon Musk für den Kurznachrichtendienst X – links der Mitte landeten, insbesondere bei gesellschaftspolitischen Fragen.
Ursachen und Auswirkungen
Es bleibt offen, ob diese Verzerrungen auf die ursprünglichen Daten oder auf nachträgliche Anpassungen durch die Entwickler zurückzuführen sind. Rozado betonte die Notwendigkeit weiterer Forschung, um eine ausgewogene und genaue Darstellung von Informationen durch KI-Chatbots zu gewährleisten. Er warnte vor den tiefgreifenden gesellschaftlichen Konsequenzen, die dieser Wandel mit sich bringen könnte, da KI-Sprachmodelle zunehmend übliche Informationsplattformen wie Wikipedia oder Suchmaschinen ersetzen. „Dieser Wandel hat tiefgreifende gesellschaftliche Konsequenzen, da sie öffentliche Meinung, Wahlergebnisse und den gesamten Diskurs beeinflussen könnten“, mahnte Rozado.
Kritische Stimmen und konkrete Fälle
Die politischen Verzerrungen von KI-Chatbots sind ein regelmäßig kritisiertes Thema. Ein prominentes Beispiel dafür ist Google. Im Februar musste der Technologieriese die Bildherstellungsfunktion seines Chatbots „Gemini“ vorübergehend deaktivieren, da das Programm bei der Darstellung gesellschaftlicher Vielfalt über das Ziel hinausgeschossen sei. Es wurden Bilder erzeugt, auf denen überwiegend Schwarze und Asiaten in Wehrmachtsuniformen oder Wikingerkleidung zu sehen waren – ohne dass dies explizit gefordert wurde.
Die Erkenntnisse der Studie werfen ein Licht auf die politischen Neigungen von KI-Chatbots und ihre potenziellen Auswirkungen auf die Gesellschaft. Es ist von entscheidender Bedeutung, dass Entwickler und Forscher weiterhin daran arbeiten, diese Verzerrungen zu verstehen und zu korrigieren. Nur so kann sichergestellt werden, dass KI-gestützte Informationsquellen eine faire und ausgewogene Perspektive bieten, die der Vielfalt und Komplexität unserer Welt gerecht wird.