MALMOE

Schattenboxen

Becom­ing Dig­i­tal (0x0B)

Die Matrix ist online, das SkyNet aktiviert und HAL hat über­nom­men. So voll wie nicht nur die Tages­nachricht­en, son­dern auch kul­turelle und philosophis­che For­mate aller Art mit Debat­ten um (ver­meintlich) kün­stliche Intel­li­genz und ihre poten­ziellen Auswirkun­gen ger­ade sind, kön­nte man meinen, die feindliche Über­nahme des Plan­eten durch die Maschi­nen stünde kurz bevor.

Beacht­enswert sind dabei zwei Aspek­te. Zum einen kom­men in den medi­alen Debat­ten rel­a­tiv wenige Men­schen mit Sachken­nt­nis, die nicht mit ökonomis­chen Inter­essen ein­herge­ht, zu Wort: Allen­falls der/die ein oder andere Grün­derIn oder InvestorIn schafft es neben Poli­tik­erIn­nen und Jour­nal­istIn­nen noch in die Diskus­sion­srun­den. Kaum jedoch jemand, der sich als Infor­matik­erIn oder gar Data Sci­en­tist beze­ich­net. Ger­ade aus deren Aus­sagen in Inter­views und Fachar­tikeln1Log­ic, 1.2017, ‚„The Smart, the Stu­pid, and the Cat­a­stroph­i­cal­ly Scary: An Inter­view with an Anony­mous Data Sci­en­tist“: A long con­ver­sa­tion with a vet­er­an data sci­en­tist on AI, deep learn­ing, Fin­Tech, and the future.‘ ergibt sich jedoch – die (zu) oft beklagte Ver­mis­chung der Begriffe „Machine Learn­ing“ und „Arti­fi­cial Intel­li­gence“ ein­mal bei­seit­ege­lassen – meist ein ganz anderes Bild. Von ein­er Wis­senschaft in ihren Kinder­schuhen ist da die Rede, und davon, dass es bis zur „strong AI“, also bis zum wirk­lich autonom agieren­den Algo­rith­mus, wahrschein­lich noch 50 bis 100 Jahre dauern wird.

Die Lück­en, die jene Abwe­sen­heit von Wis­senschaft in unseren Diskursen hin­ter­lässt, füllen wir schein­bar allzu gerne mit Nar­ra­tiv­en, die uns Sci­ence-Fic­tion nun seit beina­he einem Jahrhun­dert in zunehmend inter­ak­tiv­eren For­mat­en und besseren Auflö­sun­gen liefert. Zwar glaubt nie­mand ern­sthaft, dass an der Spitze von Face­book oder Google eine AI-Rep­lika­tion von Antho­ny Hop­kins das Zepter schwingt. Den­noch sind wir nur allzu gerne bere­it, die in den Algo­rith­men ver­baut­en Vorurteile und anderen weltan­schaulichen Normierun­gen entwed­er ganz zu ignori­eren, oder aber der Tech­nolo­gie als autonomer Akteurin selb­st zuzuschreiben. Die Fol­gen dessen mögen noch harm­los anmuten, wenn ein übertech­nisiert­er Seifen­spender NutzerIn­nen mit „zu dun­kler“ Haut­farbe den Betrieb ver­weigert. Wenn aber „Pre­dic­tive Policing“-Anwendungen, also die com­put­ergestützte Analyse vorhan­den­er Fall­sta­tis­tiken zur Steuerung von Polizeiar­beit, auf­grund des großteils unter klas­sis­tis­chen und ras­sis­tis­chen Bedin­gun­gen gesam­melten Präze­denz­ma­te­ri­als ganze gesellschaftliche Grup­pen vorauss­chauend unter Ver­dacht stellen, wer­den sys­temis­che Ungerechtigkeit­en algo­rith­misch zemen­tiert. Gle­ichzeit­ig aber wer­den sie – vor dem Hin­ter­grund eines vorge­blich autonom und objek­tiv entschei­den­den Com­put­er­pro­gramms – als solche unsicht­bar.

Nicht nur die Qual­ität der Dat­en, mit denen selb­stler­nende Algo­rith­men trainiert wer­den, ist jedoch oft prob­lema­tisch, son­dern auch ihre Herkun­ft. Im besten Fall sind es noch wir, die sie mit jedem Swipe, Like und Captcha mehr oder weniger frei­willig erar­beit­en. Sehr oft jedoch wer­den Auf­gaben, für welche die entsprechen­den Mod­elle erst noch trainiert wer­den müssen, an Heer­scharen von unter­bezahlten Men­schen in Chi­na und Südostasien aus­ge­lagert. Ein promi­nentes Beispiel hier­für ist Face­books vorge­blich automa­tisierte Inhalt­skon­trolle, welche in weit­en Teilen auf den Philip­pinen von Hand besorgt wird. So steckt hin­ter den slick­en wie smarten Inter­faces oft mod­erne Sklave­nar­beit.

Nicht zulet­zt ver­schwinden die Köpfe, die genau diese Unzulänglichkeit­en in der Forschung the­ma­tisieren kön­nten, zunehmend schneller in pri­vat­en Unternehmen. So scheint es, dass wir in unseren Debat­ten über die Kon­se­quen­zen der kom­menden Automa­tisierung eher mit Sci­Fi-Charak­teren schat­ten­box­en, statt wahre Geg­n­er anzuge­hen. Wenn wir aber diese Automa­tisierung nicht mit mehr wis­senschaftlichem Feed­back und aus­ge­wo­generen Datensets ver­sor­gen, wer­den ver­loren gegan­gene Arbeit­splätze am Ende unser ger­ing­stes Prob­lem sein.