Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Algorithmen sind keine Messer | Überwachung, Tracking, Datenschutz | bpb.de

Algorithmen sind keine Messer

/ 7 Minuten zu lesen

Algorithmen bestimmen, was eine Google-Suche als Ergebnisse auswirft, welche Werbung wir angezeigt bekommen oder ob unser Verhalten im Netz den Sicherheitsbehörden auffällt. Doch kaum jemand weiß, wie sie eigentlich funktionieren, welche versteckten Urteile sie fällen und welche Folgen diese auf uns haben können. Brauchen wir deshalb eine Algorithmenethik?

Algorithmen wie Google haben einen großen Einfluss auf unser Netzverhalten. Doch was steht eigentlich hinter diesem und ähnlichen Algorithmen? (© picture-alliance, maxppp)

Ein guter Verkaufsalgorithmus funktioniert eigentlich wie ein Tante-Emma-Laden um die Ecke. Der Verkäufer kennt die Kund_innen – wenn auch meist nur flüchtig –, weiß um deren Bedürfnisse (Vorliebe für norddeutsches Bier, Abneigung gegen Dosenessen) und er versteht sich darin, Produkte zu empfehlen, die zu diesen Gewohnheiten passen. Was dem Verkäufer im Eckladen seine Erfahrung und sein Gefühl, sind dem Algorithmus Zahlen. Welches Geschlecht haben die Nutzer_innen, welche Vorlieben, wie viel Einkommen – all das wird erfasst und in Nullen und Einsen umgesetzt. Aus diesen errechnet ein Algorithmus mit einer bestimmten Wahrscheinlichkeit, was wir wollen. Ein Algorithmus ist hier also nicht mehr als eine Rechenvorschrift.

Google - Das ganz persönliche Tor zum Internet

Zu berechnen, was wir wollen - das ist auch das Kerngeschäft der Google-Suche. Für die meisten Internet-Nutzer_innen führt an ihr kein Weg vorbei. Das kleine Suchfenster auf der Seite ist das Tor ins weltweite Netz. Ein Algorithmus allerdings sorgt dafür, dass sich die möglichen Ergebnisse in individuell festgelegten Grenzen halten: Googles Suchergebnisse sind hochgradig personalisiert. Im Grunde hat so jede_r eine eigene Google-Suche, der sich nicht bewusst für ein alternatives Suchwerkzeug entscheidet. Im vergangenen US-Wahlkampf führte diese Filterung zu einer seltsamen Begebenheit: Suchten US-Amerikaner_innen per Google Nachrichten über die Sandy-Flut-Katastrophe, tauchten zumeist mehr Ergebnisse auf, die US-Präsident Obamas Bemühungen um die Opfer zeigten, als jene seines republikanischen Gegners Mitt Romney. Der Grund war einfach: Sehr viel mehr Menschen hatten zuvor nach dem amtierenden Präsidenten Obama gesucht. Google hatte somit verstärkt Ergebnisse ausgeliefert, in denen dieser vorkam, weil der Algorithmus sie für relevanter hielt: in einem hart umkämpften Wahlkampf keine Bagatelle.

Algorithmus is watching you

Algorithmen, die uns Bücher oder Schuhe zum Online-Kauf feilbieten, unterscheiden sich nicht so sehr von jenen, die staatliche Behörden, wie der BND, das BKA, oder der Verfassungsschutz für die Überwachung von Kommunikationswegen einsetzen. In beiden Fälle wird eine statistische Normalität konstruiert und mit gewissen Parametern werden Rückschlüsse auf unsere Intentionen und zukünftigen Handlungen geschlossen. Auch bei staatlicher Überwachung weiß kaum jemand, auf welche Vorannahmen und Werturteile der Algorithmus fußt. Ist es schon verdächtig, wenn jemand viel mit Menschen aus der Arabischen Welt kommuniziert? Neigen Linux-Nutzer_innen etwa eher dazu, illegal Musik aus dem Netz zu laden?

Es sind diese Fragen nach den ethischen Gradmessern der Technik, die Tobias Matzner von der Universität Tübingen umtreiben. Als Informatiker und Philosoph forscht er zu den gesellschaftlichen Wirkungen neuer Technik. "Es gibt Forschungen, in denen beispielsweise Überwachungsalgorithmen von Kameras bei Asiaten und Afroamerikanern anders funktioniert haben als bei Weißen“, erklärt Matzner.

Gibt es z.B. eine Statistik die besagt, dass die Mehrheit an Diebstählen in einem Supermarkt von Afroamerikanern begangen wurde, fließt diese möglicherweise in die Programmierung eines Überwachungsalgorithmus ein und entscheidet so bereits im Vorfeld wer verdächtig ist und wer nicht. Dies sei zwar von den Entwicklern so nicht beabsichtigt gewesen, aber dennoch würden beim Einsatz solcher Technik bestimmte Gruppen diskriminiert. Bei dieser Art der technischen Überwachung wird die Wirkung von Algorithmen besonders deutlich. Wann reagiert ein System auf bestimmte Muster des Aussehens oder der Bewegung? Die Programmierer_innen, die dies bestimmen, legen eine Normalität und eine Abweichung fest, die ganz reale Auswirkungen haben. Sie definieren, was Mehrheit und was Minderheit ist und das ohne öffentliche Kontrolle.

Wer bestimmt die Bestimmer?

Algorithmen bestimmen also die Ergebnisse unserer Suchmaschinen-Suche, unsere Werbung, unsere Sicherheit. Doch wer bestimmt eigentlich, was in den Algorithmen steht? Wir wissen erschreckend wenig darüber, wer eben jene "Rechenvorschriften“ programmiert und welche Interessen er damit verfolgt. Es scheint das Bewusstsein und Wissen zu fehlen, dass Algorithmen von interessierten Vorannahmen gelenkt werden. Der Technikethiker Tobias Matzner sieht den Grund dafür darin, "dass Menschen Maschinen eher zutrauen, neutral zu sein. Computer haben eine objektive Aura.“ Dass hinter jedem Algorithmus ein Unternehmen mit wirtschaftlichen, ja vermutlich auch politischen Interessen und ein Auftraggeber mit einer eigenen Agenda steht wird dabei vergessen.

Doch wenn Algorithmen Entscheidungen auf Grundlage festgelegter Parameter treffen, die für unser Leben und gesellschaftliches Zusammenleben prägend sind, brauchen wir dann nicht so etwas wie eine Ethik für Algorithmen?

Die Diskussion um eine Algorithmenethik ist ein Nischenthema und wird so richtig erst seit wenigen Jahren geführt . Gewöhnlich lautet die Reaktion : Was soll das sein? Sollen Algorithmen ab sofort gestreichelt werden?

Das mag auch daran liegen, dass der Begriff in doppelter Hinsicht verwirrend ist. Algorithmenethik. Das klingt zunächst so, als müsste man fertigen Algorithmen ethisches Handeln beibringen; sie in den Ethikunterricht stecken. Und es klingt so, als gäbe es die eine Ethik, die für Algorithmen gelten müsse. Ganz so, als würden wir auch von einer bestimmten Menschenethik sprechen, die allgemeingültig ist.

Algorithmen-Entwickler_innen-Ethik

Wenn von Algorithmenethik die Rede ist, geht es eigentlich um so etwas wie eine Entwickler_innen-Ethik. Es stimmt schon: Der Algorithmus entscheidet über die Relevanz einer Suche. Doch er selbst kann natürlich nicht sagen, was richtig oder falsch ist. Er bewertet anhand der Parameter, die ihm vorgegeben wurden.

Jörg Blumtritt, der auf der re:publica gemeinsam mit Stephan Noller einen Vortrag über Algorithmenethik hielt, fasst das so zusammen: "Wenn Versicherungen jemanden rausschmeißen, ist nicht der Algorithmus schuld, sondern die Menschen, die da die Vorgaben geben.“ Eigentlich geht es also um jene, die diese Vorgaben bestimmen. Doch bei denen fehle häufig das Bewusstsein über die Folgen ihrer Entscheidungen, findet Tobias Matzner. "Viele Informatiker glauben, dass das, was sie programmieren, wie ein Messer ist: Man kann damit leckeren Salat machen oder eben jemanden töten. Aber so einfach ist es eben nicht.“

Um entscheiden zu können, ob ein Algorithmus ethischen Maßstäben genügt, müsste er überhaupt zugänglich sein. Die zentrale Forderung müsste daher lauten: Legt die Algorithmen offen! Wo werden Algorithmen eingesetzt und was genau tun sie? Welche Annahmen treffen sie? All diese so basalen wie wichtigen Informationen liegen zumeist überhaupt nicht vor. Mehr noch: Die Daten – unsere Daten! –, die Unternehmen dafür nutzen ihre Algorithmen zu füttern, sind für uns selbst nicht einsehbar. Was weiß Amazon eigentlich über mich? Worauf fußen seine Empfehlungen? Bisher bleiben solche Fragen unbeantwortet.

Nollers Unternehmen nugg.ad möchte hier gerne eine Vorreiterrolle einnehmen. Auf den Seiten des Unternehmens, kann jede_r Nutzer_in einsehen, was Noller und sein Team über einen wissen. Selbst Google gewährt uns einen begrenzten Einblick in die Daten, von denen der Suchmaschinen-Gigant glaubt, dass sie uns interessieren. Das ist ein Anfang.

Doch eigentlich müsste es noch viel weiter gehen: Die gesamten Algorithmen müssten offengelegt werden. Nur so können wir wissen, wie die Informationen, die Unternehmen über uns sammeln, tatsächlich genutzt werden.

Geht das: Algorithmen einsehbar für alle?

Viele glauben, es bedarf einer Selbstverpflichtung der Unternehmen, die Algorithmen offen zu legen; Noller glaubt nicht daran, dass das hilft. "Das wirtschaftliche Eigeninteresse der Unternehmen, sie geheim zu halten, ist viel zu groß“, sagt er. Daher fordert er gesetzliche Regeln für Unternehmen zur Offenlegung von Algorithmen. Dann könnte jede_r einzelne sehen, was die Algorithmen tun.

Doch wer versteht die zahllosen Programmzeilen und kann sie einschätzen? Eigentlich müssten die Unternehmen gleichzeitig auch Werkzeuge schaffen, die die Algorithmen auf einfache Weise verständlich und vor allem veränderbar machen. "Entwickler könnten mehr Energie darauf verwenden, smarte und schöne Anwendungen zu implementieren, die die Funktionsweise von Algorithmen klar machen“. Eine Schaltfläche bei Google, die genau erklärt, was eigentlich gerade passiert, ein Schalter, der die Personifizierung ausschalten kann – das wäre wichtig.

In der Sicherheitspolitik ist das natürlich ein heikles Thema: Wir wissen ja kaum, wie unsere Sicherheitsdienste überhaupt arbeiten. Ist es da nicht illusorisch, zu erwarten, dass sie die Algortihmen ihrer Überwachungsinstrumente preisgeben? Tobias Matzner möchte die Frage anders gestellt wissen:„Wenn ich nicht genau gucken kann, was da passiert, weiß ich auch nicht, ob es mehr Sicherheit bringt.“ Er fordert, dass zumindest einem Expertengremium, das demokratisch legitimiert ist, solche Verfahren offen gelegt werden.

Holt den Diskurs zurück!

Eigentlich geht es im Kern dessen, was gerne als Algorithmenethik bezeichnet wird, um eine Demokratisierung von Wissen und Kontrolle. Es geht darum, Menschen Zugang zu verschaffen - zu einer Technik, die Ihnen unter Umständen kaum bekannt ist, eben weil sie ihre Wirkung im Stillen entfaltet. Darum, die Frage zu stellen: Wollen wir eine bestimmte Technologie überhaupt? Und die Forderung an die Entwickler: Wir wollen mitentscheiden, was und wer unser Leben berechnet und kontrolliert. Neue Algorithmen können das Leben effizienter und bequemer machen – doch machen sie es besser? In einer demokratisch verfassten Gesellschaft geht es eben nicht nur um Kosten, Geschwindigkeit und Effizienz. Wenn Suchalgorithmen unsere Navigation im Netz einschränken und z.B. Nachrichten vorselektieren, ist das ein Vorgang, der den Kern unserer Demokratie berührt: Wer bekommt wie viel Raum in der Öffentlichkeit? Wenn Algorithmen von Sicherheitsbehörden delinquentes Verhalten zu identifizieren suchen, stecken dahinter zutiefst gesellschaftliche Fragen wie: Was ist Normalität? Was wollen wir sanktionieren? Und wie viele dieser Fragen wollen wir wirklich Sicherheitsunternehmen beantworten lassen, statt sie gesellschaftlich zu diskutieren?

Ein Bewusstsein darüber zu schaffen, wie stark Algorithmen unser tägliches Leben bereits heute beeinflussen - da fängt die Diskussion an. Doch dann müssen wir auch beginnen, uns einzumischen. Wenn Algorithmenethik vor allem eine Entwickler_innen-Ethik ist, dann müssen wir den Entwicklern_innen sagen, was wir wollen, dann müssen unsere Bedürfnisse als Staatsbürgerinnen und Bürger, als Nutzerinnen und Nutzer einfließen in zukünftige Technik.