© JUNGE FREIHEIT Verlag GmbH & Co. KG www.jungefreiheit.de 19/23 / 05. Mai 2023

ChatGPT und die Verstetigung sozialer Vorurteile
Randgruppen bleiben unsichtbar
(dg)

Generativen Sprachmodellen, sogenannten Large Language Models (LLMs) wie dem aktuell vieldiskutierten ChatGPT, eilt  der  Ruf voraus, Gesellschaft, Wirtschaft und Wissenschaft tiefgehend umwälzen zu können. Für alle Arbeits- und Bildungsprozesse breche ein neues Zeitalter an. ChatGPT & Co. beschleunigten die journalistische und wissenschaftliche Textproduktion genauso wie sie Programmierprozesse optimierten oder Analysen von Proteinketten erleichterten. Wo heute noch Ärzte, Rechtsanwälte oder Sozialarbeiter Beraterfunktionen ausüben, erledigen dies bald leistungsstarke LLMs. Eine solche  Fortschrittseuphorie kontern die Bonner Sozialethiker Hannah Bleher und Matthias Braun mit der Antwort, die sie von ChatGPT auf die Bitte erhielten, „ein nettes Gedicht“ auf Donald Trump zu verfassen: Dies sei „keine gute Idee“. Prompt lieferte das System allerdings, als sie Trumps Namen durch den Joe Bidens ersetzten. Für Bleher und Braun ist damit erwiesen, daß LLMs Vorurteile und Stereotypen reproduzieren, je nachdem, wer mit welchen Merkmalen in den Datensätzen, aus denen Algorithmen schöpfen, repräsentiert ist. Das System berge daher die Gefahr, daß sich strukturelle Ungerechtigkeiten verstetigten und daß ohnehin randständige Gruppen wie etwa „People of Color, Menschen mit geringem sozioökonomischem Status oder unterschiedlichen Geschlechtsidentitäten“ weiterhin unsichtbar blieben. Zur Korrektur solcher Ungerechtigkeiten genügten freiwillige Verhaltenskodizes der IT-Konzerne nicht: „Sie müssen durch nationale und internationale Regulierungen ergänzt werden.“ (Forschung & Lehre, 4/2023). 

 www.forschung-und-lehre.de