Fatale Fehleinschätzungen durch künstliche Intelligenz

David Strom 19 Mai 2021

Während die Probleme der sozialen Gerechtigkeit von Algorithmen hohe Aufmerksamkeit erlangen, gibt es wenig Diskussionen über Altersdiskriminierung durch KI.

Algorithmen sind unter Beschuss. Aber derzeit steht es beim Duell Maschine gegen Mensch 1 : 0. Während wir sicher noch nicht das Schreckensszenario von Terminators "Skynet" erreicht haben, holen Maschinen gegenüber den kohlenstoffbasierten Lebensformen unseres Planeten auf und könnten uns bald überlegen sein.

Bevor wir tiefer in das Thema einsteigen, schauen wir uns zunächst an, wie das Thema in den "Mainstream"-Medien behandelt wird. Wir haben bereits den Dokumentarfilm "Das Dilemma mit den sozialen Medien" von Netflix behandelt und die Probleme betrachtet, die von Social-Media-Unternehmen für unsere Privatsphäre ausgehen. Auch in der Serie "All Hail the Algorithm" geht es um den potenziellen Missbrauch biometrischer Daten - und wie wir wenig bis gar keine Kontrolle darüber haben, wie unsere Gesichter und andere biometrischen Daten verwendet werden und wie diese missbraucht werden können. 

Das ist auch Gegenstand der neuesten Netflix-Dokumentation "Coded Bias" ("Vorprogrammierte Diskriminierung"), welche letztes Jahr veröffentlicht wurde. Der Film zeigt die Probleme auf, wenn Algorithmen zur Entscheidungsfindung bei Entlassungen und Einstellungen in Firmen und bei der Überwachung auf Bewährung entlassener Straftäter verwendet werden. Wie China Gesichtserkennungssoftware zur Nachverfolgung der Bürger und für die Authentifizierung bei Einkäufen verwendet, wird im Film thematisiert.  

Der Film folgt einer Gruppe KI-Aktivisten bei ihrem Versuch den US-Kongress dazu zu bringen, Gesetze (wie z.B. den Algorithm Accountability Act) zu erlassen. Dieses Gesetz soll regulieren, wie Algorithmen mit uns interagieren und wer letztendlich zur Verantwortung gezogen wird, sollten falsche Entscheidungen daraus resultieren. Dazu muss man sagen, dass KI-Software in Amerika schon viel häufiger eingesetzt wird, als in Europa. Doch auch hier gibt es einen klaren Trend in diese Richtung.

In London begleitet die Protagonistin im Film etwa die Aktivisten von "Big Brother Watch UK". England ist nach China das Land mit dem durchdringendsten Überwachungssystem. Da wird vor Kantayyas laufender Kamera ein dunkelhäutiger 14-jähriger Schüler verhaftet, weil ihn eine Überwachungskamera fälschlicherweise als Kriminellen identifiziert. Es stellt sich rasch heraus, dass er unschuldig ist. 

Während die Probleme der sozialen Gerechtigkeit, die Algorithmen mit einschließen weiterhin Aufmerksamkeit erlangen, gibt es wenig Diskussionen über die Altersdiskriminierung durch KI. 

Wie Altersdiskriminierung in der modernen Welt funktioniert

Der Comedian Bill Maher 2014 proklamierte, Altersdiskriminierung sei das letzte gesellschaftlich akzeptierte “Vorurteil” in Amerika. Er hatte damals recht und (leider) auch noch heute. Viele Studien beziehen sich auf die Anstellung von älteren Arbeitssuchenden und ihre Chancen, einen Job zu bekommen. 

Aber was von KI erschaffen wurde, kann oftmals auch von besser trainierten KI-Modellen gelöst werden, wie diese Studie zeigt. Es gibt Forschungen darüber, wie KI-Modelle zur Identifizierung von Diskriminierung bei der Einstellung genutzt werden können

Wenn der Einstellungsprozess auf Fähigkeiten und Leistung basiert, können Führungskräfte gleiche Voraussetzungen auch für ältere Arbeitskräfte schaffen. Hari Kolam, CEO der People Intelligence Plattform "Findem" ist in dem erwähnten Artikel mit der Aussage zu Wort gekommen, dass Altersdiskriminierung so verbreitet sei und einen solchen Einfluss auf die Diversität der Gesamtbelegschaft habe, dass es ironisch sei, wie wenig Beachtung das Thema erfahre. Kolam führt weiter aus, dass man, wenn in Personaldatenbanken nach Personen, die "tatkräftig" und "anpackend"  suchen würde, unbeabsichtigt auf jüngere Kandidat*innen stoßen würde.

Der Zusammenhang zwischen Einstellungs-”Bias” und Fehlinformationen

Aber der Einstellungs-"Bias" ist nur ein Einsatzort altersdiskriminierender Algorithmen. "Ältere Menschen haben Ängste, dass eine Voreingenommenheit durch Algorithmen sich diskriminierend auf ihre Stellung im Gesundheitssystem, das Wohnen, die Arbeitsstelle und das Bank- und Finanzwesen auswirken könnte“, sagen Mitglieder des US-Projektes "Get Older Adults Online"

Diese Voreingenommenheit könnte in Desinformationen über ältere Menschen oder verschiedene Formen der Diskriminierung münden. Es ist an der Zeit, Algorithmen inklusiver zu gestalten, in Hinblick auf Alter und kulturellem Hintergrund der potenziellen Personengruppen, die Teil des jeweiligen Modells sind.

Neben KI und deren Einflüssen gibt es ein noch ein weiteres Problem: Desinformationen herauszufiltern ist eine große Aufgabe und selbst die Aufmerksamsten unter uns haben Probleme damit, nicht unbeabsichtigt Fake News per E-Mail und über die sozialen Medien zu verbreiten. Wichtig ist auch im Blick zu haben, dass die Cyberkriminalität gegenüber älteren Menschen weltweit zunimmt, auch dadurch bedingt, dass immer mehr Senioren online sind. In diesem Artikel zeigen wir auf, wie Sie Ihre älteren Familienmitglieder vor Online-Betrug schützen können.

Interessiert an mehr News von uns? Schauen Sie auf unseren Blog und folgen Sie uns auf Facebook und auf Twitter!

 

--> -->