Mythos #42: Algorithmen sind immer neutral.
Matthias Spielkamp

Mythos: Da ein Algorithmus letztlich nichts anderes als eine Reihe von auf Daten angewandten Anweisungen ist und die Daten in der Regel als Zahlen vorliegen, kann ein Algorithmus keine Verzerrungen oder Vorurteile enthalten, die Einfluss auf das vom Algorithmus produzierte Ergebnis hätten.

 

Stimmt’s? Algorithmen werden ebenso wie algorithmische Entscheidungssysteme von Menschen entwickelt. Dies beginnt mit Netzwerkmanagement, das bestimmte Formen von Inhalten gegenüber anderen bevorzugt (Netzneutralität), und reicht bis hin zur „Künstlichen Intelligenz“, die Hate Speech, Desinformationen oder terroristische Propaganda automatisch von Journalismus, Parodie und anderen Formen legitimer Inhalte unterscheiden soll (# 18, # 43). Alle diese Systeme erzielen ihre Ergebnisse anhand von Urteilen: Um seine Aufgabe zu erfüllen, muss ein Algorithmus „wissen“, welches Datenpaket er anders behandeln soll als andere und welche Kriterien eine bestimmte Ausdrucksweise definieren. Abgesehen davon, ob Algorithmen jemals in der Lage sein werden, Sprache richtig zu beurteilen (was nicht eintreten wird), ist es offensichtlich, dass diese Definitionen immer von Menschen mit bestimmten Absichten entwickelt werden. Diese Definitionen können ebenso wenig wie der Algorithmus, der auf ihrer Grundlage handelt, als neutral eingestuft werden.

Eine wohlwollende Lesart des Mythos ist, dass Algorithmen alle Eingaben denselben Anweisungen unterwerfen und daher unterschiedslos handeln und keine eigenen Absichten haben. Das ist zwar wahr, jedoch geht es darum überhaupt nicht.

Bei den sogenannten Machine-Learning-Techniken kommt ein weiterer Aspekt zum Tragen. Wenn Algorithmen trainiert werden, indem sie mit einer großen Zahl von Datensätzen gefüttert werden, damit sie Muster identifizieren und daraus „lernen“ können (sogenannte „Trainingsdaten“), ist zu bedenken, dass diese Datensätze in der Regel bereits in der Gesellschaft vorhandene Vorurteile enthalten. Zieht ein selbstlernendes System auf der Grundlage verzerrter Daten Schlussfolgerungen, so sind diese in der Regel auch verzerrt und daher nicht neutral.

 

Stimmt also nicht! Algorithmen werden entweder direkt von Menschen entwickelt oder entwickeln ihre Logik beim Selbstlernen auf der Grundlage von vom Menschen gesteuerten und gestalteten Prozessen. Sie sind weder „objektiv“ noch „neutral“, sondern das Ergebnis menschlicher Überlegungen und Machtinteressen.

 


Quelle: Aylin Caliskan Islam, Joanna J. Bryson, Arvind Narayanan: Semantics derived automatically from language corpora necessarily contain human biases, Computing Research Repository (2017), https://arxiv.org/abs/1608.07187; Alex Salkever, Vivek Wadhwa, A.I. Bias Isn‘t the Problem. Our Society Is (2019), https://fortune.com/2019/04/14/ai-artificial-intelligence-bias.