• Startseite
    • Glosse
    • Schlagloch
  • Hochschule
    • StuRa
    • Hochschule in Kürze
    • Hochschule bleibt stabil
  • Studentisches Leben
    • Psychische Gesundheit
    • 7 Tage
  • Heidelberg
    • Kneipenkritik
    • Heidelberger Historie
    • OB-Wahl 2022
  • Feuilleton
    • Literatur
    • Musik
    • Film & Theater
    • Eine Kleine Poesie
    • Sprechen über den Tod
    • Pro-Contra im Feuilleton
  • Wissenschaft
  • Weltweit
  • Über Uns
    • So entsteht die Ausgabe
    • Unsere Redaktion
    • Mitmachen!
    • Impressum
  • Print
    • Printarchiv
    • Leserbriefe – Info
    • Zu den Briefen
kein Ergebnis
View All Result
ruprecht
Montag, 30. Januar 2023
  • Startseite
    • Glosse
    • Schlagloch
  • Hochschule
    • StuRa
    • Hochschule in Kürze
    • Hochschule bleibt stabil
  • Studentisches Leben
    • Psychische Gesundheit
    • 7 Tage
  • Heidelberg
    • Kneipenkritik
    • Heidelberger Historie
    • OB-Wahl 2022
  • Feuilleton
    • Literatur
    • Musik
    • Film & Theater
    • Eine Kleine Poesie
    • Sprechen über den Tod
    • Pro-Contra im Feuilleton
  • Wissenschaft
  • Weltweit
  • Über Uns
    • So entsteht die Ausgabe
    • Unsere Redaktion
    • Mitmachen!
    • Impressum
  • Print
    • Printarchiv
    • Leserbriefe – Info
    • Zu den Briefen
kein Ergebnis
View All Result
ruprecht
kein Ergebnis
View All Result

Maschinen mit Vorurteilen

Künstliche Intelligenz und maschinelles Lernen sind auf dem Vormarsch. Software kann allerdings rassistische Muster entwickeln

von Nicolaus Niebylski
31. August 2020
in Startseite, Wissenschaft
Lesedauer: 3 Minuten
0
Maschinen mit Vorurteilen

Foto: Nicolaus Niebylski, Graffito: Gonz Maldonado-Morales

Computer können vieles besser als Menschen. Die Entwicklung von künstlicher Intelligenz und maschinellem Lernen unterstreicht das. Seit einiger Zeit zeigen die Rechner sogar ungeahnte Fähigkeiten: Programme können genauso rassistisch sein wie manche Mitmenschen.

Die Google-Software Vision Cloud soll Objekte auf Bildern erkennen. Das Programm beschriftete das Bild einer Hand, die ein Thermometer hält, mit „Hand“ und „Schusswaffe“ – aber nur, wenn die Hand dunkelhäutig war. Ansonsten wurde das Objekt als „elektronisches Gerät“ kategorisiert. Google hat den Algorithmus inzwischen geändert, sodass er nicht mehr die Bezeichnung Schusswaffen verwendet.

Programme können also Vorurteilen aufsitzen. In einem kontrollierten Umfeld, wo keine Konsequenzen daraus folgen, ist das harmlos. Sobald ein Algorithmus zur Entscheidungsfindung eingesetzt wird, können falsche Urteile bisweilen dramatische Folgen haben.

In den USA ist das bereits vorgekommen. Die Verwaltung von Broward County in Florida setzt eine Software ein, um abzuschätzen, ob ein Straftäter rückfällig wird. Anhand dessen entscheidet sich etwa, ob ein Angeklagter in Untersuchungshaft kommt oder auf freiem Fuß bleibt. Bei Schwarzen sagte die Software etwa doppelt so oft zu Unrecht eine Wiederholungstat vorher wie bei Weißen. Dagegen nahm die Software bei Weißen übermäßig häufig zu Unrecht an, dass kein solches Risiko bestünde. Ein menschlicher Rassist hätte es kaum schlechter machen können.

Ähnliche Fehler machen Programme zur Gesichtserkennung. Schwarze Frauen werden am häufigsten falsch identifiziert, wie die Washington Post berichtet. Die fraglichen Programme werden von den USA im Grenzschutz eingesetzt. Schwarze Frauen werden also häufiger zu Unrecht festgehalten, durchsucht und verhört.

Was macht Computerprogramme rassistisch? Den Entwicklern Böswilligkeit zu unterstellen, dürfte übertrieben sein. Ebenso wenig handelt die KI selbst aus bösem Willen.

Künstliche Intelligenz übt an bereitgestellten Datensätzen. So lernt sie etwa, welche Bilder mit welchen Begriffen korrelieren. Im nächsten Schritt werden dem Programm unbeschriftete Testbilder vorgelegt. Daran wird das Urteilsvermögen der Maschine überprüft. Bei solchem maschinellen Lernen ist es selbst für Programmierer oft nicht nachzuvollziehen, wie die Gegenstände erkannt werden. Nur das Ergebnis ist überprüfbar.

Wenn ein Algorithmus Vorurteile zeigt, sind mehrere Gründe möglich. Der Datensatz, an dem ein Programm lernt, kann unausgewogen sein und bestimmte Gruppen falsch repräsentieren. Zudem ist das Erstellen von Datensätzen aufwändig und damit teuer. Hersteller und Programmierer greifen daher gern auf bereits bestehende Datenbanken zurück – bei denen es oft keine Garantie für ausgewogene Repräsentation gibt.

Für Objekterkennung wird oft ImageNet genutzt. Dieser Datensatz umfasst über 14 Millionen per Hand beschriftete Bilder verschiedenster Motive. Knapp die Hälfte stammt aus den USA, während China und Indien zusammen nur etwa 3 Prozent ausmachen. Daher wird etwa eine Frau mit einem weißen Hochzeitskleid als Braut erkannt, mit typisch indischen Hochzeitskleidern aber nicht.

Soll eine Software Prognosen abgeben, tun sich weitere Probleme auf. So geschehen an einer medizinischen Fakultät in Großbritannien: Dort hielt eine Software Schwarze für schlechtere Bewerber. Sie orientierte sich dafür an einem Datensatz früherer, erfolgreicher Bewerber. Diese waren vorwiegend weiß. Von strukturellem Rassismus wusste die Software offenbar nichts.

Was könnte Vorurteile in Software vermeiden? Die Daten sollten möglichst repräsentativ sein. Ansonsten kann die KI mit einem moralischen Kompass ausgestattet werden. So kann ein Programm etwa den Befehl erhalten, Geschlecht und Hautfarbe bei der Auswahl von Bewerbern oder der Einschätzung von Straftätern zu ignorieren.

Die Entscheidungen des einen Programms lassen sich auch von einem anderen auf Vorurteile prüfen. Unter anderem entwickelt der IT-Konzern IBM Algorithmen, die das leisten sollen. Da bleibt nur die Frage: Wer kontrolliert die Kontroll-KI?

Von Nicolaus Niebylski

Nicolaus Niebylski
Fotograf

Nicolaus Niebylski studiert Biowissenschaften. Beim ruprecht ist er seit dem Sommersemester 2017 tätig – meist als Fotograf. Er bevorzugt Reportagefotografie und schreibt über Entwicklungen in Gesellschaft, Kunst und Technik. Seit November 2022 leitet er das Ressort Heidelberg. Zuvor war er, beginnend 2019, für die Ressorts Studentisches Leben, PR & Social Media und die Letzte zuständig, die Satireseite des ruprecht.

Tags: Künstliche IntelligenzRassismusru187Wissenschaft

Empfohlene Artikel

Nur Unsicherheit ist sicher
Startseite

Nur Unsicherheit ist sicher

31. Dezember 2022
Geheime Absprachen unter kleinsten Teilchen
Startseite

Geheime Absprachen unter kleinsten Teilchen

31. Dezember 2022
Hammer statt Helm
Startseite

Hammer statt Helm

16. August 2022
Künstlicher Wetterfrosch
Startseite

Künstlicher Wetterfrosch

14. August 2022
nächster Artikel

Warum töten Polizisten?

Plastik in unseren Meeren – Uli Kunz im Interview

Plastik in unseren Meeren – Uli Kunz im Interview

Whitepaper vertont ein Lebensgefühl

Whitepaper vertont ein Lebensgefühl

Schreibe einen Kommentar Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Datenschutzerklärung
  • Impressum
  • Leserbriefe
  • Mitmachen!
  • Printarchiv
  • So entsteht die Ausgabe
  • Startseite
  • Über Uns
  • Unsere Redaktion

kein Ergebnis
View All Result
  • Startseite
    • Glosse
    • Schlagloch
  • Hochschule
    • StuRa
    • Hochschule in Kürze
    • Hochschule bleibt stabil
  • Studentisches Leben
    • Psychische Gesundheit
    • 7 Tage
  • Heidelberg
    • Kneipenkritik
    • Heidelberger Historie
    • OB-Wahl 2022
  • Feuilleton
    • Literatur
    • Musik
    • Film & Theater
    • Eine Kleine Poesie
    • Sprechen über den Tod
    • Pro-Contra im Feuilleton
  • Wissenschaft
  • Weltweit
  • Über Uns
    • So entsteht die Ausgabe
    • Unsere Redaktion
    • Mitmachen!
    • Impressum
  • Print
    • Printarchiv
    • Leserbriefe – Info
    • Zu den Briefen