• Startseite
    • ruprecht fragt
    • Glosse
    • Schlagloch
    • Pro-Contra
  • Hochschule
    • StuRa
    • Hochschule bleibt stabil
  • Studentisches Leben
    • Psychische Gesundheit
    • 7 Tage
    • Dr. Ruprechts Sprechstunde
  • Heidelberg
    • Kneipenkritik
    • Heidelberger Historie
    • OB-Wahl 2022
  • Wissenschaft
  • Feuilleton
    • Literatur
    • Musik
    • Film & Theater
    • Pro-Contra im Feuilleton
  • Weltweit
  • Die Letzte
  • Online exklusiv
  • Über Uns
    • So entsteht die Ausgabe
    • Unsere Redaktion
    • Mitmachen!
    • Impressum
  • Print
    • Printarchiv
    • Leserbriefe – Info
    • Zu den Briefen
kein Ergebnis
View All Result
ruprecht
Freitag, 5. Dezember 2025
  • Startseite
    • ruprecht fragt
    • Glosse
    • Schlagloch
    • Pro-Contra
  • Hochschule
    • StuRa
    • Hochschule bleibt stabil
  • Studentisches Leben
    • Psychische Gesundheit
    • 7 Tage
    • Dr. Ruprechts Sprechstunde
  • Heidelberg
    • Kneipenkritik
    • Heidelberger Historie
    • OB-Wahl 2022
  • Wissenschaft
  • Feuilleton
    • Literatur
    • Musik
    • Film & Theater
    • Pro-Contra im Feuilleton
  • Weltweit
  • Die Letzte
  • Online exklusiv
  • Über Uns
    • So entsteht die Ausgabe
    • Unsere Redaktion
    • Mitmachen!
    • Impressum
  • Print
    • Printarchiv
    • Leserbriefe – Info
    • Zu den Briefen
kein Ergebnis
View All Result
ruprecht
kein Ergebnis
View All Result

Maschinen mit Vorurteilen

Künstliche Intelligenz und maschinelles Lernen sind auf dem Vormarsch. Software kann allerdings rassistische Muster entwickeln

von Nicolaus Niebylski
31. August 2020
in Startseite, Wissenschaft
Lesedauer: 3 Minuten
0
Maschinen mit Vorurteilen

Foto: Nicolaus Niebylski, Graffito: Gonz Maldonado-Morales

Computer können vieles besser als Menschen. Die Entwicklung von künstlicher Intelligenz und maschinellem Lernen unterstreicht das. Seit einiger Zeit zeigen die Rechner sogar ungeahnte Fähigkeiten: Programme können genauso rassistisch sein wie manche Mitmenschen.

Die Google-Software Vision Cloud soll Objekte auf Bildern erkennen. Das Programm beschriftete das Bild einer Hand, die ein Thermometer hält, mit „Hand“ und „Schusswaffe“ – aber nur, wenn die Hand dunkelhäutig war. Ansonsten wurde das Objekt als „elektronisches Gerät“ kategorisiert. Google hat den Algorithmus inzwischen geändert, sodass er nicht mehr die Bezeichnung Schusswaffen verwendet.

Programme können also Vorurteilen aufsitzen. In einem kontrollierten Umfeld, wo keine Konsequenzen daraus folgen, ist das harmlos. Sobald ein Algorithmus zur Entscheidungsfindung eingesetzt wird, können falsche Urteile bisweilen dramatische Folgen haben.

In den USA ist das bereits vorgekommen. Die Verwaltung von Broward County in Florida setzt eine Software ein, um abzuschätzen, ob ein Straftäter rückfällig wird. Anhand dessen entscheidet sich etwa, ob ein Angeklagter in Untersuchungshaft kommt oder auf freiem Fuß bleibt. Bei Schwarzen sagte die Software etwa doppelt so oft zu Unrecht eine Wiederholungstat vorher wie bei Weißen. Dagegen nahm die Software bei Weißen übermäßig häufig zu Unrecht an, dass kein solches Risiko bestünde. Ein menschlicher Rassist hätte es kaum schlechter machen können.

Ähnliche Fehler machen Programme zur Gesichtserkennung. Schwarze Frauen werden am häufigsten falsch identifiziert, wie die Washington Post berichtet. Die fraglichen Programme werden von den USA im Grenzschutz eingesetzt. Schwarze Frauen werden also häufiger zu Unrecht festgehalten, durchsucht und verhört.

Was macht Computerprogramme rassistisch? Den Entwicklern Böswilligkeit zu unterstellen, dürfte übertrieben sein. Ebenso wenig handelt die KI selbst aus bösem Willen.

Künstliche Intelligenz übt an bereitgestellten Datensätzen. So lernt sie etwa, welche Bilder mit welchen Begriffen korrelieren. Im nächsten Schritt werden dem Programm unbeschriftete Testbilder vorgelegt. Daran wird das Urteilsvermögen der Maschine überprüft. Bei solchem maschinellen Lernen ist es selbst für Programmierer oft nicht nachzuvollziehen, wie die Gegenstände erkannt werden. Nur das Ergebnis ist überprüfbar.

Wenn ein Algorithmus Vorurteile zeigt, sind mehrere Gründe möglich. Der Datensatz, an dem ein Programm lernt, kann unausgewogen sein und bestimmte Gruppen falsch repräsentieren. Zudem ist das Erstellen von Datensätzen aufwändig und damit teuer. Hersteller und Programmierer greifen daher gern auf bereits bestehende Datenbanken zurück – bei denen es oft keine Garantie für ausgewogene Repräsentation gibt.

Für Objekterkennung wird oft ImageNet genutzt. Dieser Datensatz umfasst über 14 Millionen per Hand beschriftete Bilder verschiedenster Motive. Knapp die Hälfte stammt aus den USA, während China und Indien zusammen nur etwa 3 Prozent ausmachen. Daher wird etwa eine Frau mit einem weißen Hochzeitskleid als Braut erkannt, mit typisch indischen Hochzeitskleidern aber nicht.

Soll eine Software Prognosen abgeben, tun sich weitere Probleme auf. So geschehen an einer medizinischen Fakultät in Großbritannien: Dort hielt eine Software Schwarze für schlechtere Bewerber. Sie orientierte sich dafür an einem Datensatz früherer, erfolgreicher Bewerber. Diese waren vorwiegend weiß. Von strukturellem Rassismus wusste die Software offenbar nichts.

Was könnte Vorurteile in Software vermeiden? Die Daten sollten möglichst repräsentativ sein. Ansonsten kann die KI mit einem moralischen Kompass ausgestattet werden. So kann ein Programm etwa den Befehl erhalten, Geschlecht und Hautfarbe bei der Auswahl von Bewerbern oder der Einschätzung von Straftätern zu ignorieren.

Die Entscheidungen des einen Programms lassen sich auch von einem anderen auf Vorurteile prüfen. Unter anderem entwickelt der IT-Konzern IBM Algorithmen, die das leisten sollen. Da bleibt nur die Frage: Wer kontrolliert die Kontroll-KI?

Von Nicolaus Niebylski

Nicolaus Niebylski
Fotograf |  + postsBio

Nicolaus Niebylski studiert Biowissenschaften. Beim ruprecht ist er seit dem Sommersemester 2017 tätig – meist als Fotograf. Er bevorzugt Reportagefotografie und schreibt über Entwicklungen in Gesellschaft, Kunst und Technik. Seit November 2022 leitet er das Ressort Heidelberg. Zuvor war er, beginnend 2019, für die Ressorts Studentisches Leben, PR & Social Media und die Letzte zuständig, die Satireseite des ruprecht.

  • Nicolaus Niebylski
    https://www.ruprecht.de/author/nicolaus-niebylski/
    Kiffkoordinaten
  • Nicolaus Niebylski
    https://www.ruprecht.de/author/nicolaus-niebylski/
    Trauer in Tschechien
  • Nicolaus Niebylski
    https://www.ruprecht.de/author/nicolaus-niebylski/
    Frühling 1945
  • Nicolaus Niebylski
    https://www.ruprecht.de/author/nicolaus-niebylski/
    Die ruprecht Foto-Lovestory – Teil 1
Tags: Künstliche IntelligenzRassismusru187Wissenschaft

Empfohlene Artikel

Rosalind Franklin
Ausgabe

Rosalind Franklin

1. Dezember 2025
Winterwundermittel 
Ausgabe

Winterwundermittel 

24. November 2025
Muss man alles selber machen? 
Ausgabe

Muss man alles selber machen? 

16. November 2025
Mileva Marić
Ausgabe

Mileva Marić

13. August 2025
nächster Artikel

Warum töten Polizisten?

Plastik in unseren Meeren – Uli Kunz im Interview

Plastik in unseren Meeren – Uli Kunz im Interview

Whitepaper vertont ein Lebensgefühl

Whitepaper vertont ein Lebensgefühl

Schreibe einen Kommentar Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert


  • Impressum
  • Datenschutzerklärung
  • Printarchiv
  • Unsere Redaktion

kein Ergebnis
View All Result
  • Startseite
    • ruprecht fragt
    • Glosse
    • Schlagloch
    • Pro-Contra
  • Hochschule
    • StuRa
    • Hochschule bleibt stabil
  • Studentisches Leben
    • Psychische Gesundheit
    • 7 Tage
    • Dr. Ruprechts Sprechstunde
  • Heidelberg
    • Kneipenkritik
    • Heidelberger Historie
    • OB-Wahl 2022
  • Wissenschaft
  • Feuilleton
    • Literatur
    • Musik
    • Film & Theater
    • Pro-Contra im Feuilleton
  • Weltweit
  • Die Letzte
  • Online exklusiv
  • Über Uns
    • So entsteht die Ausgabe
    • Unsere Redaktion
    • Mitmachen!
    • Impressum
  • Print
    • Printarchiv
    • Leserbriefe – Info
    • Zu den Briefen