Künstliche Intelligenz und algorithmische Verantwortungslosigkeit: Der Teufel in der Maschine?

mikemacmarketing, CC BY‘ width=”” Höhe=””>
Künstliche Intelligenz ist heute tief in die Systeme eingebettet, mit denen wir Entscheidungen treffen. Die Annahmen, auf denen sie basieren, sind uns jedoch oft völlig verborgen. Bildnachweis: mikemacmarketing, CC BY

Der klassische Kriminalfilm von 1995 Die üblichen Verdächtigen dreht sich um die polizeiliche Vernehmung von Roger “verbale” Kint, gespielt von Kevin Spacey. Kint paraphrasiert Charles Baudelaire und stellt fest, dass “Der größte Trick, den der Teufel je gemacht hat, war, die Welt davon zu überzeugen, dass er nicht existiert.” Die Implikation ist, dass der Teufel effektiver ist, wenn er unsichtbar agiert, das Verhalten manipuliert und konditioniert, anstatt den Menschen zu sagen, was sie tun sollen. In der Erzählung des Films besteht seine Rolle darin, das Urteilsvermögen zu trüben und uns dazu zu verleiten, unser Gefühl der moralischen Verantwortung aufzugeben.

In unserer Forschung sehen wir hier Parallelen zur Rolle der Künstlichen Intelligenz (KI) im 21. Jahrhundert. Wieso den? Ebenso verleitet KI dazu, Urteilsvermögen und moralische Verantwortung aufzugeben. Indem es eine Reihe von Entscheidungen aus unserem Bewusstsein entfernt, verdrängt es die Beurteilung einer verwirrenden Vielfalt menschlicher Aktivitäten. Darüber hinaus können wir ohne ein angemessenes Verständnis dafür, wie es dies tut, seine negativen Auswirkungen nicht umgehen.

Die Rolle der KI wird im Jahr 2020 so weithin akzeptiert, dass sich die meisten Menschen ihrer im Wesentlichen nicht bewusst sind. Heute helfen KI-Algorithmen unter anderem dabei, zu bestimmen, mit wem wir ausgehen, unsere medizinischen Diagnosen, unsere Anlagestrategien und welche Prüfungsnoten wir bekommen.

Ernsthafte Vorteile, heimtückische Auswirkungen

Mit weit verbreitetem Zugang zu detaillierten Daten über menschliches Verhalten, die aus sozialen Medien gewonnen wurden, hat KI die Schlüsselsektoren der meisten entwickelten Volkswirtschaften durchdrungen. Bei handhabbaren Problemen wie der Analyse von Dokumenten schneidet es im Vergleich zu langsameren und fehleranfälligeren menschlichen Alternativen in der Regel gut ab, was zu enormen Effizienzgewinnen und Kostensenkungen für diejenigen führt, die es anwenden. Bei komplexeren Problemen wie der Wahl eines Lebenspartners ist die Rolle der KI heimtückischer: Sie rahmt Entscheidungen ein und “schubst” Wähler.

Gerade für diese komplexeren Probleme sehen wir ein erhebliches Risiko im Zusammenhang mit dem Aufkommen von KI bei der Entscheidungsfindung. Jede menschliche Entscheidung beinhaltet notwendigerweise die Umwandlung von Eingaben (relevante Informationen, Gefühle usw.) in Ausgaben (Entscheidungen). Jede Wahl beinhaltet jedoch unweigerlich auch eine Beurteilung ohne Urteil könnten wir eher von einer Reaktion als von einer Wahl sprechen. Der urteilende Aspekt der Wahl ermöglicht es Menschen, Verantwortung zuzuschreiben. Aber je komplexere und wichtigere Entscheidungen durch KI getroffen oder zumindest vorangetrieben werden, desto schwieriger wird die Zuweisung von Verantwortung. Und es besteht die Gefahr, dass sowohl öffentliche als auch private Akteure diese Erosion des Urteilsvermögens annehmen und KI-Algorithmen anwenden, um sich selbst vor Schuldzuweisungen zu schützen.

In einem aktuellen Forschungspapier haben wir untersucht, wie das Vertrauen auf KI in der Gesundheitspolitik wichtige moralische Diskussionen verschleiern kann und damit “Verantwortung übernehmen” Akteure im Gesundheitswesen. (Sehen “Anormative Blackboxen: Künstliche Intelligenz und Gesundheitspolitik,” Posthumane Institutionen und Organisationen: Konfrontation mit der Matrix.)

Erosion von Urteilsvermögen und Verantwortung

Die wichtigsten Erkenntnisse unserer Forschung gelten für eine breitere Palette von Aktivitäten. Wir argumentieren, dass die Erosion des Urteilsvermögens, die durch KI erzeugt wird, unser Verantwortungsbewusstsein verwischt oder sogar beseitigt. Die Gründe sind:

  • KI-Systeme fungieren als Blackboxes. Wir können den Input und den Output eines KI-Systems kennen, aber es ist außerordentlich schwierig, zurückzuverfolgen, wie Outputs von Inputs abgeleitet wurden. Diese scheinbar hartnäckige Undurchsichtigkeit erzeugt eine Reihe von moralischen Problemen. Eine Blackbox kann für eine Entscheidung oder Handlung kausal verantwortlich sein, kann jedoch nicht erklären, wie sie zu dieser Entscheidung gelangt oder diese Handlung empfohlen hat. Auch wenn Experten die Blackbox öffnen und die darin enthaltenen langen Rechenfolgen analysieren, lassen sich diese nicht in eine menschliche Begründung oder Erklärung übersetzen.
  • Unpersönliche Regelsysteme beschuldigen. Organisationswissenschaftler haben lange untersucht, wie Bürokratien Einzelpersonen von den schlimmsten Verbrechen freisprechen können. Zu den klassischen Texten gehören Zygmunt Baumans Moderne und Holocaust und Hannah Arendts Eichmann in Jerusalem. Beide waren fasziniert davon, wie sonst anständige Menschen an Gräueltaten teilnehmen konnten, ohne sich schuldig zu fühlen. Dieses Phänomen war möglich, weil Einzelpersonen Verantwortung und Schuld auf unpersönliche Bürokratien und ihre Führer abwälzten. Die Einführung von KI verstärkt dieses Phänomen, da jetzt selbst Führungskräfte die Verantwortung auf die KI-Systeme übertragen können, die politische Empfehlungen abgegeben und politische Entscheidungen formuliert haben.
  • Zuweisung der Verantwortung auf Artefakte statt auf die Ursachen. KI-Systeme sind darauf ausgelegt, Muster zu erkennen. Aber im Gegensatz zu den Menschen verstehen sie die Bedeutung dieser Muster nicht. Wenn also die meisten Straftaten in einer Stadt von einer bestimmten ethnischen Gruppe begangen werden, wird das KI-System diesen Zusammenhang schnell erkennen. Es wird jedoch nicht berücksichtigt, ob diese Korrelation ein Artefakt tieferer, komplexerer Ursachen ist. So kann ein KI-System die Polizei anweisen, potenzielle Kriminelle aufgrund der Hautfarbe zu unterscheiden, kann jedoch die Rolle von Rassismus, Polizeibrutalität und Armut bei der Entstehung von kriminellem Verhalten nicht verstehen.
  • Selbsterfüllende Prophezeiungen, die niemandem die Schuld geben kann. Die am häufigsten verwendeten KIs werden mit historischen Daten gefüttert. Dies kann bei der Erkennung physiologischer Zustände wie Hautkrebs funktionieren. Das Problem ist jedoch, dass die KI-Klassifizierung von soziale Kategorien kann auf lange Sicht als sich selbst erfüllende Prophezeiung wirken. So erkennen beispielsweise Forscher zur KI-basierten Geschlechterdiskriminierung die Widerspenstigkeit von Algorithmen an, die am Ende übertreiben, ohne jemals eine bereits bestehende soziale Voreingenommenheit gegenüber Frauen, Transgender-Personen und nicht-binären Personen einzuführen.

Was können wir tun?

Es gibt kein Wundermittel gegen die Verantwortungslosigkeitstendenzen der KI, und es ist nicht unsere Rolle als Wissenschaftler und Wissenschaftler zu entscheiden, wann KI-basierter Input selbstverständlich ist und wann er angefochten werden soll. Dies ist eine Entscheidung, die am besten der demokratischen Beratung überlassen wird. (Sehen “Die techno-totalitäre Matrix der digitalen Gesellschaft” in Posthumane Institutionen und Organisationen: Konfrontation mit der Matrix.) Es ist jedoch unsere Aufgabe zu betonen, dass KI-basierte Berechnungen nach dem derzeitigen Stand der Technik als Blackboxes funktionieren, die moralische Entscheidungen eher erschweren als weniger.


Leave a Comment