MALMOE

Schattenboxen

Becoming Digital (0x0B)

Die Matrix ist online, das SkyNet aktiviert und HAL hat übernommen. So voll wie nicht nur die Tagesnachrichten, sondern auch kulturelle und philosophische Formate aller Art mit Debatten um (vermeintlich) künstliche Intelligenz und ihre potenziellen Auswirkungen gerade sind, könnte man meinen, die feindliche Übernahme des Planeten durch die Maschinen stünde kurz bevor.

Beachtenswert sind dabei zwei Aspekte. Zum einen kommen in den medialen Debatten relativ wenige Menschen mit Sachkenntnis, die nicht mit ökonomischen Interessen einhergeht, zu Wort: Allenfalls der/die ein oder andere GründerIn oder InvestorIn schafft es neben PolitikerInnen und JournalistInnen noch in die Diskussionsrunden. Kaum jedoch jemand, der sich als InformatikerIn oder gar Data Scientist bezeichnet. Gerade aus deren Aussagen in Interviews und Fachartikeln1Logic, 1.2017, ‚„The Smart, the Stupid, and the Catastrophically Scary: An Interview with an Anonymous Data Scientist“: A long conversation with a veteran data scientist on AI, deep learning, FinTech, and the future.‘ ergibt sich jedoch – die (zu) oft beklagte Vermischung der Begriffe „Machine Learning“ und „Artificial Intelligence“ einmal beiseitegelassen – meist ein ganz anderes Bild. Von einer Wissenschaft in ihren Kinderschuhen ist da die Rede, und davon, dass es bis zur „strong AI“, also bis zum wirklich autonom agierenden Algorithmus, wahrscheinlich noch 50 bis 100 Jahre dauern wird.

Die Lücken, die jene Abwesenheit von Wissenschaft in unseren Diskursen hinterlässt, füllen wir scheinbar allzu gerne mit Narrativen, die uns Science-Fiction nun seit beinahe einem Jahrhundert in zunehmend interaktiveren Formaten und besseren Auflösungen liefert. Zwar glaubt niemand ernsthaft, dass an der Spitze von Facebook oder Google eine AI-Replikation von Anthony Hopkins das Zepter schwingt. Dennoch sind wir nur allzu gerne bereit, die in den Algorithmen verbauten Vorurteile und anderen weltanschaulichen Normierungen entweder ganz zu ignorieren, oder aber der Technologie als autonomer Akteurin selbst zuzuschreiben. Die Folgen dessen mögen noch harmlos anmuten, wenn ein übertechnisierter Seifenspender NutzerInnen mit „zu dunkler“ Hautfarbe den Betrieb verweigert. Wenn aber „Predictive Policing“-Anwendungen, also die computergestützte Analyse vorhandener Fallstatistiken zur Steuerung von Polizeiarbeit, aufgrund des großteils unter klassistischen und rassistischen Bedingungen gesammelten Präzedenzmaterials ganze gesellschaftliche Gruppen vorausschauend unter Verdacht stellen, werden systemische Ungerechtigkeiten algorithmisch zementiert. Gleichzeitig aber werden sie – vor dem Hintergrund eines vorgeblich autonom und objektiv entscheidenden Computerprogramms – als solche unsichtbar.

Nicht nur die Qualität der Daten, mit denen selbstlernende Algorithmen trainiert werden, ist jedoch oft problematisch, sondern auch ihre Herkunft. Im besten Fall sind es noch wir, die sie mit jedem Swipe, Like und Captcha mehr oder weniger freiwillig erarbeiten. Sehr oft jedoch werden Aufgaben, für welche die entsprechenden Modelle erst noch trainiert werden müssen, an Heerscharen von unterbezahlten Menschen in China und Südostasien ausgelagert. Ein prominentes Beispiel hierfür ist Facebooks vorgeblich automatisierte Inhaltskontrolle, welche in weiten Teilen auf den Philippinen von Hand besorgt wird. So steckt hinter den slicken wie smarten Interfaces oft moderne Sklavenarbeit.

Nicht zuletzt verschwinden die Köpfe, die genau diese Unzulänglichkeiten in der Forschung thematisieren könnten, zunehmend schneller in privaten Unternehmen. So scheint es, dass wir in unseren Debatten über die Konsequenzen der kommenden Automatisierung eher mit SciFi-Charakteren schattenboxen, statt wahre Gegner anzugehen. Wenn wir aber diese Automatisierung nicht mit mehr wissenschaftlichem Feedback und ausgewogeneren Datensets versorgen, werden verloren gegangene Arbeitsplätze am Ende unser geringstes Problem sein.