MALMOE

Keine neutrale Technologie

Algorithmen werden in der öffentlichen Verwaltung eingesetzt, um Einsparungen objektiv erscheinen zu lassen. Dabei ist es kein Zufall, dass ein solches System in Österreich zuerst an Erwerbsarbeitslosen erprobt wird.

Seit mehr als einem Jahr wird in Österreich eine Debatte über den AMS-Algorithmus geführt. Viel Kritik von Forscher_innen, netzpolitischen Aktivist_innen, Erwerbsarbeitsloseninitiativen und aus Teilen des AMS selbst liegt auf dem Tisch – die Verantwortlichen beim Arbeitsmarktservice zeigen sich von den Vorteilen des Systems überzeugt. Überraschend wird im September angekündigt, dass die interne Evaluierung abgeschlossen sei. Das System sei frühzeitig bereit für den Regelbetrieb. Die Debatte wird auch deshalb so hartnäckig geführt, weil der AMS-Algorithmus eine Art Präzedenzfall in der österreichischen öffentlichen Verwaltung darstellt. Vergleichbare Systeme gibt es international schon länger – dass jedoch ausgerechnet an der schwächsten Gruppe gespart werden soll, hebt das österreichische Beispiel negativ hervor.

Automatisierte Ungleichheit

In ihrem 2018 erschienenen Buch Automating Inequality legt die Politikwissenschaftlerin Virginia Eubanks eine umfassende Recherche dazu vor, wie algorithmische Systeme in unterschiedlichen Bereichen des US-amerikanischen Sozialsystems weitgehend automatisiert entscheiden, zum Beispiel über den Zugang zu Gesundheitsversorgung oder Sozialwohnungen. Anhand mehrerer Fallbeispiele arbeitet sie gemeinsame Charakteristika solcher Systeme heraus. Mit dem Begriff „digital poorhouse“ schlägt Eubanks dabei eine gedankliche Brücke zum Armenhaus des 19. Jahrhunderts, das die Armen zwar versorgen, aber auch disziplinieren soll. Die Entscheidung zwischen „würdigen“ und „unwürdigen“ Armen übernimmt dabei der Computer, nach immer weiter differenzierten – in Algorithmen gegossene – Kriterien. Armut, die so gemanagt wird, wird damit für die breite Bevölkerung unsichtbar gemacht und gleichzeitig eine emotionale Distanz geschaffen, die verschleiert, dass unmittelbar über die Lebensperspektiven von Menschen entschieden wird. Insgesamt werden in der Gesellschaft marginalisierte Gruppen, schreibt Eubanks, in höherem Ausmaß überwacht und über sie werden vermehrt Daten gesammelt. So etwa, wenn sie Sozialleistungen beantragen, nationalstaatliche Grenzen überqueren oder weil ihre Wohngegend stärker polizeilich überwacht wird. Es sei daher kein Zufall, dass algorithmische Entscheidungen besonders in gesellschaftlichen Bereichen zum Einsatz kommen, die von Machtasymmetrien und Intransparenz geprägt sind und in denen es für die Betroffenen schwierig ist, ihre Rechte einzufordern. Das bestätigen auch einige Beispiele aus europäischen Ländern, wo algorithmische Systeme in der Verwaltung von Erwerbsarbeitslosen eingesetzt werden.

Vergleichbare Systeme

„Vergleichbare Systeme gibt es auch in einigen anderen Ländern, in den USA und in Australien zum Beispiel schon sehr lange“, sagt Gabriel Grill, Informatiker und derzeit PhD Student an der University of Michigan, der zur Anwendung von Algorithmen forscht im Gespräch mit MALMOE. „Wo solche Systeme in Einsatz sind, zum Beispiel in Schweden, werden sie meistens eher dazu eingesetzt, dass man Leute, die stark benachteiligt sind mehr und früher fördert. Das österreichische System ist da eher eine Ausnahme.“ Ein statistisches Profiling gibt es in Europa neben Schweden zum Beispiel in Belgien, Dänemark und den Niederlanden.

Große Ähnlichkeiten mit dem AMS-Algorithmus weist ein 2014 in Polen eingeführtes System auf, das 2018 jedoch vom Verfassungsgerichtshof gekippt wurde und Ende 2019 auslaufen wird. Auch hier werden die Jobchancen von Arbeitssuchenden prognostiziert, die Betroffenen danach in drei Kategorien eingeteilt. Das polnische Modell ist vor allem wegen der suggestiven Befragung umstritten, die eine Grundlage der Bewertung bildet. Die Entscheidung des Gerichts beruhte auf eher formalen Gründen, da das Parlament bei der Entscheidung über das Gesetz umgangen worden war.

Viele Fragen offen

Eine Gruppe von fünf Wissenschaftler_innen, Florian Cech (TU Wien), Fabian Fischer (TU Wien), Gabriel Grill (TU Wien, University of Michigan), Soheil Human (WU Wien, Uni Wien), Paola Lopez (Uni Wien), Ben Wagner (WU Wien), die seit einiger Zeit zum AMS-Algorithmus forschen, erneuern in einem Anfang Oktober auf futurezone veröffentlichten offenen Brief ihre Kritik an der Informationspolitik des AMS. Dem Algorithmus fehle der „Beipackzettel“ und damit die Grundlage, ein informierte Diskussion, wie sie für ein solches Vorhaben der öffentlichen Hand notwendig wäre, zu führen. Einer der zentralsten Kritikpunkte, dass der Algorithmus bestehende Diskriminierungen zu verfestigen droht, bleibt bestehen. Dass Frauen überproportional oft in der Gruppe mit den mittleren Chancen vertreten sind und in der Gruppe mit den niedrigen Chancen unterrepräsentiert, entkräftigt die Vorwürfe nicht. „Solange wir nicht genauer wissen, wie Frauen in verschiedenen Situationen auf die Gruppen verteilt werden, können wir nicht davon sprechen, dass Frauen generell nicht benachteiligt werden“, so Gabriel Grill.

Zu erwarten ist, dass die niedrige Bewertung besonders Geflüchtete und Migrant_innen negativ betreffen wird, da diese nicht durch eine besondere Zielgruppenförderung abgefedert wird.

In der Öffentlichkeit bislang noch wenig thematisiert sei der Entstehungskontext, sagt Fabian Fischer, einer der Autor_innen des offenen Briefes, gegenüber MALMOE. Die Idee, ein statistisches Profiling im AMS einzusetzen, entsteht in Zusammenhang mit der 2015-2016 stark ansteigenden Zahl von Arbeitssuchenden. Das AMS suchte nach einer Maßnahme, mit gleichbleibenden Mitteln die fast eineinhalbfache Zahl von Menschen zu betreuen. Der Rechnungshofbericht von 2017 gibt Aufschluss über genauere Pläne: Die Idee einer „Kundensegmentierung“, der Unterteilung von Arbeitssuchenden in Gruppen, gab es zu diesem Zeitpunkt schon. Es wurde auch festgehalten, dass die Ressourcen auf jene Kund_innengruppen mit den größten Integrationschancen konzentriert werden sollen. Darüber hinaus sei ein automatisiertes „Skillmatching“ geplant, das Arbeitssuchenden passende Jobangebote vermitteln soll, künftig auch eine Evaluierung von Maßnahmen auf Basis des Jobchancenmodells. Der Kontext verdeutlicht, dass der AMS-Algorithmus vor allem dabei helfen sollte, Kürzungen zu rationalisieren, geframed als besonders effizienter Einsatz der Mittel.

Unter Spardruck

Die Sachbearbeiter_innen werden durch das neue System mehrfach unter Druck gebracht: zum einen, weil dem AMS damit ein Werkzeug zur Verfügung steht, dass den Beratungsaufwand reduzieren soll und damit potentiell für Personaleinsparungen genutzt werden kann. Zum anderen, weil sie als „soziales Korrektiv“ all das in die Bewertung einbringen sollen, was nicht in Zahlen ausgedrückt werden kann (z. B. Motivation, Auftreten) und rechtfertigen müssen, wenn sie die Entscheidung der Software ändern wollen. Im oben erwähnten Beispiel in Polen zeigte sich, dass die Berater_innen in weniger als einem von hundert Fällen dem errechneten Ergebnis widersprochen haben.

Darüber, wie nun genau der Algorithmus evaluiert wurde, ist derzeit wenig bekannt. Informationen gibt es vor allem über die Evaluierung der sogenannten Beratungs- und Betreuungseinrichtung Neu (BBEN), ein niederschwelliges Angebot für jene Gruppe mit den schwächsten Jobchancen. Neu ist daran vor allem, dass dieses Angebot freiwillig genutzt werden kann, was bei den Teilnehmer_innen in den Pilotprojekten gut ankommt. Gleichzeitig ist dies ein Hinweis darauf, dass „Angebote“ des AMS eben nicht immer freiwillig sind.

Dass das AMS den Beratungsaufwand bei besonders „arbeitsmarktfernen“ Personen reduzieren möchte, heißt nicht, dass auf diese kein Druck ausgeübt wird. Beispielsweise können Kürzungen im Budget von sozialökonomischen Betrieben bedeuten, dass künftig keine vollwertigen geförderten Arbeitsplätze zur Verfügung stehen, sondern Arbeitssuchenden stattdessen ein „Probearbeiten“ oder unbezahlte Traineestellen angeboten werden. Daher müssen im Zusammenhang mit dem AMS-Algorithmus auch die Budgetkürzungen beim AMS stärker thematisiert werden.

Individualisierung gesellschaftlicher Probleme

Grundsätzlich problematisch an dieser Art des Profilings seien, so Fabian Fischer, vor allem drei Punkte: Erstens der Fokus auf das Individuum, zweitens der Versuch, die Zukunft basierend auf historischen Daten vorherzusehen, und drittens, dass alle diese Dinge auf statistischen Verfahren beruhen. Es geht also immer um eine durchschnittliche Person, die ein gewisses Alter hat, ein gewisses Geschlecht oder auf irgendeine Art gesundheitlich beeinträchtigt ist. „Der AMS-Algorithmus verspricht etwas, das er nicht tut: Er gibt vor, dass er die Jobchancen für ein Individuum vorhersagen kann, tut das aber eigentlich für eine Gruppe an Personen“, sagt Fischer. Der gesellschaftliche Kontext, Entwicklungen am Arbeitsmarkt und die Gründe, warum bestimmte Gruppen am Arbeitsmarkt benachteiligt sind, werden kaum berücksichtigt. So werden strukturelle Probleme individualisiert. „Das lässt zum Beispiel außer Acht, dass die Einstellungspolitik von Unternehmen der Grund ist, warum Frauen benachteiligt werden. In dem man diese Benachteiligung so in den Algorithmus gießt, ist der Blick wieder auf das Individuum gerichtet“, so Fischer.

Es ist ein vereinfachter Blick auf Arbeitsmarktchancen und den Arbeitsmarkt, der – ganz nach einer neoliberalen Weltsicht – sehr stark individualisiert, in einem politischen Klima, das sich für bereits benachteiligte Gruppen weiter verschärft.

Die Debatte nutzen

Der Fall des AMS-Algorithmus zeigt, dass öffentliche Kritik wirkt (so ist zum Beispiel nicht mehr von einer automatisierten Entscheidung die Rede) und auch weiterhin notwendig ist. Die Diskussion führt dazu, dass algorithmische Entscheidungen thematisiert werden, rückt aber auch die Praxis des AMS in den Blick und damit einen Bereich, in dem es gesellschaftlich oft an Solidarität mangelt. Algorithmische Systeme, die Entscheidungen über Menschen treffen, haben weitreichende Auswirkungen auf Demokratien und stellen ganz fundamental die Frage, wie wir als Gesellschaft mit strukturell benachteiligten Gruppen umgehen wollen. „Es gibt einen Technikoptimismus, der gerade zu immer mehr Digitalisierung in den verschiedensten Bereichen führt, während Risiken zu wenig diskutiert und beachtet werden. Das ist sicher ein großes Thema über die nächsten Jahre. Es werden schnell-schnell Vorhersage-Systeme eingesetzt, um z. B. scheinbar komplett objektiv im Sozialbereich zu sparen. Man sollte sich da mehr Zeit nehmen und die Prozesse demokratischer gestalten“, plädiert Gabriel Grill für mehr gesellschaftliche Teilhabe. Grundsätzlich gilt: Wer darüber Bescheid weiß, dass algorithmische Systeme entscheiden und wie diese funktionieren, kann sich leichter dagegen zur Wehr setzen.

Virginia Eubanks: Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin‘s Press, 2018.