Vor kurzem hatte ich über das Social Credit System in China berichtet. Eigentlich könnte ich jetzt schon wieder ein Update schreiben bei den vielen Meldungen, die es über China als großes Experiment im Feld der künstlichen Intelligenz gibt. Zum Beispiel Gesichtserkennung, die quasi überall und ständig eingesetzt wird, um Menschen zu identifizieren und ihnen Zugang zu geben, sie zu verhaften oder einfach um zu wissen, was sie machen. Ein bisschen frage ich mich schon, warum die Meldungen über China in dieser Größenordnung erscheinen. Einerseits sicher, weil China in Sachen künstliche Intelligenz zu einer Supermacht geworden ist. Andererseits aber auch, weil China im kollektiven Unterbewussten des Westens ein wenig die Rolle der alten Sowjetunion übernommen hat. Groß und mächtig, mit einem anderen politischen und gesellschaftlichen Systemen, bedrohlich und faszinierend. Aber dann doch ganz anders als die Sowjetunion, weil China vielleicht in vielem die Zukunft unserer eigenen Gesellschaft widerspiegelt.
Aber heute möchte ich nicht weiter über China schreiben, sondern über den Antipoden, über die USA. Mit der Wahl Donald Trumps schickt sich unser transatlantischer Partner ein wenig an, auch zu einem Gegenmodell zu werden. Und in Sachen künstliche Intelligenz und Überwachung ist die USA schon länger ein gern gesuchtes Thema in deutschen Medien.
Neulich hörte ich eine interessante Reportage im Radio über den Einsatz von Algorithmen bei der Bewertung von Strafmaßen im amerikanischen Justizsystem. Es ging darum, die Wahrscheinlichkeit für die Resozialisierung der Straftäter abzuschätzen und sich dabei nicht mehr auf ein menschliches Urteil, sondern auf die Auswertung von größeren Daten und typischen Merkmalen einzelner Personen zu verlassen. Während die Chinesen also das Sozialverhalten ihrer Bürger allumfassend messen und bewerten, versuchen die Amerikaner gleich, ist vorauszusagen, zumindest für diese spezielle Zielgruppe. Schon in der Vergangenheit hatten ähnliche Ansätze für ziemliche Aufregung gesorgt, man denke nur an predictive policing, also den Versuch, der Polizei bei ihrer Arbeit dadurch zu helfen, dass man Straftaten schon vorab identifiziert, oder zumindest ihre Wahrscheinlichkeit hinreichend gut ab schätzt. Da dies Thema in Hollywood spätestens mit Minority Report vorweggenommen wurde, hatte die Fantasie des geneigten Leser viel Stoff, um sich die unerwünschten Folgen eines solchen Systems vorzustellen.
Der Clou des Radiobeitrags war aber eigentlich ein ganz anderer, nämlich die Tendenz solche Algorithmen, menschliche Vorurteile aus den riesigen Datenmengen, die sie für ihre Arbeit nutzen, quasi unbemerkt in ihre Entscheidungsalgorithmen zu übernehmen und damit ebenso vortureilsbeladen zu urteilen, wie dies ein Mensch tun würde. Mittlerweile habe ich zu diesem Thema eine Reihe andere Artikel gefunden, es scheint sich hier eine Diskussion abzuzeichnen, die zumindest in den USA recht erheblich ist. Bekanntgeworden war vor einiger Zeit der Fall einer Bilderkennungssoftware, die Menschen mit dunkler Hautfarbe als Affen bezeichnete! Ein mehr als peinlicher Fehler, der aber aus genau diesem Problem resultiert, dass Vorurteile allgegenwärtig sind, und auch in den vielen Daten stecken, die Systeme zum Training brauchen.
Ja, der große Bruder schaut auf uns alle, aber noch scheint er nicht schlau genug zu sein, um das, was er sieht, auch richtig zu interpretieren. Bislang plappert er noch zuviel einfach nach.
Keine Kommentare:
Kommentar veröffentlichen