Zum Inhalt springen →

Biases in AI. Wie fair ist Künstliche Intelligenz wirklich?

Dr. Alina Gales, Referentin für Diversitätskonzepte an der TU München, hat uns an erschreckenden Beispielen nähergebracht, dass KI (= Künstliche Intelligenz) sehr wohl Vorurteile hat bzw. durch die Daten, die sie füttert Vorurteile der Gesellschaft widerspiegelt.

Rassismus, Sexismus, Antisemitismus sind überall in KI präsent. So geben Suchanfragen in Google zum Beispiel nach “Frauen und Technik” Bilder zurück, von leicht bekleideten Frauen am Strand, die diese Verknüpfung ins lächerliche ziehen. Suchen nach dem Begriff “woman” in einer Bildsuchdatenbank im Internet, zeigen ebenso eher leicht bekleidete, hübsche Frauen – nach dem vorherrschenden Schönheitsideal -, die freundlich lächeln. Der Grund hierfür ist, dass KI mit Daten gefüttert wird, um zu lernen. Die Daten werden wiederum von Menschen erhoben. Dass Menschen mit Vorurteilen behaftet sind, ist ihnen inhärent laut Dr. Gales. Es ist ein Schutzmechanismus, der noch aus Zeiten der Steinzeit besteht.

Feststeht, dass hier etwas getan werden muss, jedoch, wie bei so vielen Problemen, ist die Frage wie. Wer bestimmt, welche Inhalte vorbehaltslos sind und wie eine diverse Verteilung von Daten aussieht? Wie können Daten manipuliert werden? Laut Dr. Gales ist wohl der nachhaltigste Lösungsweg der, einer frühen Aufklärung und mehr Bildung in der Gesellschaft, um Vorurteile und Voreingenommenheit aufzuheben und somit gar keine Möglichkeiten zur Erstellung beeinflusster Daten zu lassen.

Veröffentlicht in News