MALMOE

Algorithmen und Daten

Becom­ing Dig­i­tal (0x05)

Algo­rith­men kön­nen ver­standen wer­den als Ver­fahren, um von ein­er aufgestell­ten Annahme zu einem Resul­tat zu gelan­gen. Zwar kann ganz all­ge­mein jedes Rechen­ver­fahren als Algo­rith­mus beze­ich­net wer­den, mehr und mehr verbindet sich mit diesem Begriff aber auch eine poli­tis­che Bedeu­tung. Gefragt wird damit nach den inhärenten Absicht­en, die in Com­put­er­pro­gram­men enthal­ten sind. Schließlich sind es viele Entschei­dun­gen, die getrof­fen wer­den, um eine dig­i­tale Tätigkeit durchzuführen. Nicht nur der Code, son­dern auch die Methodik, implizite Annah­men über das Auf­gabenge­bi­et und Erwartun­gen an das Ergeb­nis bee­in­flussen den Auf­bau eines Algo­rith­mus. Rel­e­vant sind let­ztlich die Absicht­en, die mit der Entwick­lung eines Com­put­er­pro­gramms ver­bun­den wer­den. Daraus ergibt sich der Erfolg eines Algo­rith­mus und dessen Wertschöp­fung.

Nun beruht nahezu jegliche dig­i­tale Tätigkeit auf Algo­rith­men. Entschei­dend ist aber, wie diese einge­set­zt und wie die dabei entste­hen­den Dat­en in Folge weit­er­genutzt wer­den. Dabei gilt, dass ein Algo­rith­mus kein neu­trales Ver­fahren ist, da für ein bes­timmtes Prob­lem eine bes­timmte Lösung gefun­den wird, die auch anders her­beige­führt wer­den kön­nte. Häu­fig passiert es, dass Algo­rith­men auf geschick­te Weise verknüpft wer­den und dadurch unter Umstän­den in so nicht vorge­se­hen­er Form einge­set­zt wer­den. Beispiel­sweise kann eine dig­i­tale Gesicht­serken­nungsmeth­ode, die zur Überwachung entwick­elt wurde, zu wis­senschaftlichen Zweck­en einge­set­zt wer­den. Hier um kollek­tive staatliche Kon­trolle auszuüben, dort um his­torisches Bild­ma­te­r­i­al automa­tisiert auszuw­erten.

Entschei­dend ist nicht nur das Ein­satzge­bi­et, son­dern auch der Code, der in Anwen­dung gebracht wird. Wird nun eine Gesicht­serken­nungssoft­ware ver­wen­det, die Dat­en online abspe­ichert, so kann die wis­senschaftliche Tätigkeit wiederum zur Opti­mierung von Überwachungsal­go­rith­men ver­helfen. Je mehr Dat­en zur Ver­fü­gung ste­hen, umso bess­er wird das Sys­tem Gesichter erken­nen. Auf­schluss darüber würde nur die genaue Ken­nt­nis der Soft­ware, der Architek­tur, der Ein­satzge­bi­ete und der poten­tiellen Anwen­dun­gen geben. Deswe­gen gibt es die Forderung nach ein­er Trans­parenz der Codes. Zwar lässt sich damit nachvol­lziehen, welche poten­tiellen Neben­ef­fek­te möglich sind, aber ohne Pro­gram­mierken­nt­nisse kann man wenig ändern. Beson­ders kleine Pro­jek­te müssen sich das nehmen, was eben da ist. In solchen Sit­u­a­tio­nen hil­ft es nur, ein Bewusst­sein für die Prob­lematik zu entwick­eln und dieses offen zu for­mulieren. Sei es, indem auf zusät­zliche Funk­tio­nen verzichtet wird oder zur Entwick­lung von Alter­na­tiv­en aufgerufen wird.

Prinzip­iell ist die Ver­suchung groß, auf Grund spezieller Effek­te, eines erhofften Erken­nt­niszuwach­ses oder der ein­fachen Hand­habung, die Algo­rith­men von kom­merziellen Unternehmen in das eigene Pro­jekt einzu­binden. Ins­beson­dere kleine Dig­i­tal Human­i­ties Pro­jek­te ori­en­tieren sich an bekan­nten und ein­fach zu inte­gri­eren­den Tools, da diese auch oft bess­er doku­men­tiert sind. Sie laufen dabei Gefahr, mit nicht beab­sichtigten Neben­ef­fek­ten kon­fron­tiert zu sein. Es gibt nun eben einen Unter­schied bezüglich der Daten­weit­er­ver­ar­beitung zwis­chen der Ein­bindung ein­er Google Map oder ein­er Open­StreetMap. Ziel muss es sein, für das Zusam­men­spiel von Algo­rith­men und der Wertschöp­fungs­kette von Dat­en mehr Bewusst­sein zu schaf­fen. Der Verzicht auf einen guten Effekt ist die bessere Wahl, wenn unklar ist, wie anfal­l­ende Dat­en weit­er­ver­wen­det wer­den.

Tipp: Auf https://algorithmwatch.org find­et sich eine tiefer­ge­hende Auseinan­der­set­zung mit algo­rith­mis­chen Entschei­dungs­find­un­gen.