zurück 
3.11.2020

Handlungsspielräume und digitalethische Fragen

Der technologische Wandel verändert das menschliche Leben und Wirken nachhaltig und eröffnet damit zahlreiche ethische Fragen. Wie lässt sich die fortschreitende Digitalisierung zum Wohle der Gesellschaft und ihrer Mitglieder gestalten? An welchen Werten soll sie sich orientieren? Antworten darauf können Unternehmen und IT-Fachleute nicht alleine finden. Deshalb beschäftigen sich Politik und Gesellschaft zunehmend mit solchen Fragen.

Sophia ist ein von Hanson Robotics entwickelter Roboter. Er verfügt über eine menschenähnliche Gestik und Mimik, kann Fragen beantworten und einfache Gespräche führen, deren Themen vorgegeben sind. Hier begrüßt er die Besucherinnen und Besucher des Synergy Global Forums in Moskau, 2018. (© picture-alliance/dpa, Mikhail Tereshchenko)


Die digitale Transformation ist nicht abgeschlossen: Zahlreiche Technologien bergen bislang nicht ausgeschöpfte Potenziale. Auch deshalb sind künftige Entwicklungen schwer absehbar. Der Blick auf die Weiterentwicklung von Technologien ist häufig durch die technikdeterministische  Perspektive geprägt, die Digitalisierung habe einen unabänderlichen Einfluss auf unsere Gesellschaft, bei dem die Technik über uns Menschen bestimmt (siehe auch Kapitel Gesellschaft, Kultur und Bildung). Doch wir Menschen entscheiden darüber, wie wir Technologien entwickeln und einsetzen. Wir beeinflussen, wie sie auf das Leben Einzelner und auf das gesellschaftliche Miteinander wirken. Demnach existieren Handlungsspielräume, die wir wahrnehmen können und die durch gesellschaftliche, politische sowie rechtliche Prozesse geformt werden müssen. Ziel sollte sein, den technologischen Wandel so zu gestalten, dass er unseren Vorstellungen eines guten Lebens und Zusammenlebens entspricht.

Technologie ethisch einordnen

Der Begriff "Digitale Ethik" erfasst Fragestellungen, die sich damit auseinandersetzen, wie wir die fortschreitende Digitalisierung zum Wohle der Gesellschaft und ihrer Mitglieder gestalten können und was wir dabei beachten sollten. Sie geht unter anderem auf den Wirtschaftsinformatiker und Philosophen Rafael Capurro zurück. Digitalethische Diskurse beschäftigen sich damit, wie einzelne Personen und Organisationen digitale Medien und Technologien in verschiedenen gesellschaftlichen Kontexten einsetzen, zu welchen Problemen und Konflikten es dabei kommt und wie diese gelöst werden könnten. Das beinhaltet beispielweise folgende Fragen: An welchen Werten orientieren wir uns bei der Gestaltung von Technologien? Welche Chancen birgt eine technisch optimierte Assistenz für unsere Gesellschaft und unter welchen Bedingungen können wir diese nutzen? Wie sorgen wir dafür, dass auch automatisierte Entscheidungssysteme Regeln folgen, die wir an menschliches Handeln ansetzen? Wer übernimmt die Verantwortung für die Entscheidungen solcher Systeme?

Die "Digitale Ethik" hat ihre Wurzeln insbesondere in der Technik-, Informations- und Medienethik. Bereits Mitte des letzten Jahrhunderts beschäftigten sich Wissenschaftlerinnen und Wissenschaftler, die an Informationstechnologien arbeiteten, mit den ethisch-gesellschaftlichen Auswirkungen ihrer Arbeit. Erste tiefergehende Auseinandersetzungen mit dem Thema fanden zudem unter Hackerinnen und Hackern  in den 1980er-Jahren statt.

Ethische – und damit im Kern philosophische – Fragestellungen sind oft eng mit sozialen, kulturellen, rechtlichen, politischen, ökonomischen und ökologischen Aspekten verknüpft. Denn sind ethisch-gesellschaftliche Ziele einmal gesetzt, stellt sich die Frage, wie sich diese verwirklichen lassen: durch wirtschaftliche Förderung, einen breit angelegten gesellschaftlichen Diskurs, Selbstverpflichtungen oder neue Gesetze. Findet diese Verknüpfung nicht statt, besteht die Gefahr, dass wir ethische Fragen auf einer sehr allgemeinen Ebene diskutieren und gesellschaftliche sowie politische Handlungsspielräume nicht wahrnehmen.

Perspektiven und Ebenen ethischer Fragestellungen (© bpb)


Große Digitalunternehmen prägen währenddessen die Ausgestaltung von Technologien. Sie orientieren sich dabei hauptsächlich an wirtschaftlichen Kriterien und weniger an ethischen Fragestellungen, wie etwa die italienische Politikwissenschaftlerin Maria Luisa Stasi am Beispiel erfolgreicher Anbieter sozialer Netzwerke darlegt: Deren automatisierte Moderationspraktiken sind nicht in erster Linie daran orientiert, Vielfalt und Meinungspluralismus zu fördern, sondern eigene wirtschaftliche Einkünfte zu erzielen. Um auch anderen Maßstäben Geltung zu verschaffen, könnte der gesellschaftlich-politische Raum Kriterien vorgeben, die in die Gestaltung der algorithmischen Moderationssysteme einfließen sollten. Diese Kriterien sollten sich etwa am Gemeinwohl und an grundlegenden gesellschaftlichen Werten orientieren, darunter die Bewahrung von Vielfalt in der öffentlichen Debatte. Dafür müsste wiederum ein breit angelegter gesellschaftlicher Diskurs stattfinden, der viele unterschiedliche Meinungen berücksichtige.

Gegenwärtig verstetigt sich der Diskurs zu digitalethischen Fragen auch in der Politik und der Gesellschaft. Es entstehen neue Diskussionsforen und Gremien, die etwa Kodifizierungen der Ethik, ethische Richtlinien oder Kataloge mit Werten, Prinzipien und Gütekriterien erarbeiten. Erste konkrete Definitionen digitalethischer Normen auf weltweiter Ebene entstanden beim "World Summit on the Information Society" 2003 in Genf. Das Ziel dieser an die Vereinten Nationen angegliederten Konferenz ist es, eine Informationsgesellschaft zu schaffen, die gleichsam entwicklungsorientiert und inklusiv ist sowie die allgemeine Erklärung der Menschenrechte in vollem Umfang achtet.

In diesem Zusammenhang setzte die Bundesregierung beispielsweise im Sommer 2018 die Datenethikkommission ein. Sie erarbeitete ein Gutachten zu ethischen Leitlinien, die insbesondere bei algorithmischen Systemen und ihrer Regulierung zu beachten sind. Ende 2019 veröffentlichte sie ein umfangreiches Papier, indem sie unter anderem empfiehlt, ethische Kriterien auf europäischer Ebene auszuhandeln und zu etablieren.

In den diversen Diskursen und Vorhaben werden immer wieder grundlegende Werte genannt, an denen sich Digitalisierung orientieren soll. Das sind unter anderem Offenheit, Transparenz, Gerechtigkeit, Toleranz, Gleichheit, Sicherheit, Freiheit, Verantwortung und Pluralismus. Diese breit geteilten gesellschaftlichen Werte spielen nicht nur in Bezug auf die Auswirkungen der fortschreitenden Digitalisierung in den verschiedenen Lebensbereichen eine Rolle. Die Herausforderung ist vielmehr, sie auch auf die Technologien selbst anzuwenden – also darauf, wie wir sie konzipieren, gestalten und einsetzen und dabei diese zentralen Werte möglichst umfassend berücksichtigen. Damit setzt sich beispielsweise die US-amerikanische Technologieethikerin Joanna Bryson in Zusammenhang mit Künstlicher Intelligenz  auseinander.

"Digitale Ethik" am Beispiel technologischer Trends

"Digitale Ethik" kann Maßstäbe anbieten, nach denen wir technologische Entwicklungen beurteilen. Das lässt sich insbesondere an Technologien veranschaulichen, die gegenwärtig digitalethische Diskussionen verursachen, weil sie zunehmend zum Einsatz kommen und ihre Anwendungsfelder sich voraussichtlich ausweiten.

Algorithmische Systeme sind ein solches Beispiel. So analysiert eine spezielle Software  im Justizwesen der USA Datenprofile von straffällig Gewordenen und ermittelt einen "Kriminalitätsrisikowert" für diese Personen. Dieser Wert fließt in die Entscheidung von Richterinnen und Richtern ein, wenn sie erwägen, ob ein Häftling vorzeitig auf Bewährung aus der Haft entlassen werden darf oder wie lang die Haftstrafe bei einem Schuldspruch sein soll. Ein weiteres Feld ist das Personalwesen: Algorithmische Systeme filtern hier Bewerbungen für eine bestimmte Stelle vor. Damit bekommt die Personalabteilung die der Software zufolge passenden Kandidatinnen und Kandidaten vorgelegt.

In diesen Bereichen geht es nicht nur darum, technologische Prozesse zu optimieren. Vielmehr ist der entscheidende Punkt, dass die Analysen algorithmischer Systeme hier über menschliche Schicksale (mit-)bestimmen. In diesem Zusammenhang stellen sich etwa Fragen in Bezug auf bestehende gesellschaftliche Normen wie die Gleichbehandlung. Einerseits kann der Einsatz solcher Systeme eine Chance sein, bestehende Formen der Diskriminierung aufzulösen: Sie entscheiden jedes Mal nach den gleichen, vorab bestimmten Kriterien. Demnach unterscheiden sie weder bewusst noch unbewusst zwischen Menschen, etwa aufgrund von Vorurteilen oder situativen Einflussfaktoren wie der Stimmungslage.

Andererseits sind auch algorithmische Systeme nicht von Vorurteilen befreit. Denn wie diese Systeme gebaut sind, hängt letztlich von vorurteilsbehafteten Menschen ab. Ein einfaches algorithmisches System kann über die Zielvorgaben diskriminieren, die Entwicklungsteams vorgeben. Oft finden solche Bewertungsvorgaben unbewusst, auf Grundlage gängiger gesellschaftlicher Stereotype statt. Das macht eine Reflexion und Diskussion darüber notwendig, welche Annahmen in algorithmische Systeme einfließen und welche individuellen und gesellschaftlichen Folgen das hat. Dann kann der Versuch stattfinden, algorithmische Systeme so zu gestalten und einzusetzen, dass sie sich an breit geteilten Wertvorstellungen orientieren.

Ethische Fragestellungen zu lernenden algorithmischen Systemen, also Künstlicher Intelligenz, knüpfen direkt an die zuvor beschriebene Herausforderung an. Denn auch lernende Systeme sind eine bestimmte Art algorithmischer Systeme. Selbstlernende Bewerbungssoftware analysiert beispielsweise die Profile aller Mitarbeitenden eines Unternehmens, um herauszufinden, welche Merkmale besonders erfolgreiche Beschäftigte haben. Die herausgefilterten Muster wendet das System in Folge auf die künftigen Entscheidungen an und filtert danach Bewerbungen. Wenn ein Unternehmen in der Vergangenheit Frauen systematisch benachteiligte und deshalb zu wenige Frauen einstellte, dann lernt ein System aus diesen Daten, auch dieses Muster zu erkennen und zu übernehmen: Es wählt nun ebenfalls bevorzugt männliche Bewerber aus.

Die digitalethische Debatte zu Künstlicher Intelligenz geht noch weiter. Anwendungen wie Sprachassistenten sind so gestaltet, dass die Gesprächsverläufe denen zwischen Menschen ähneln sollen. Sogenannte anthropomorphe  Roboter, in denen verschiedene lernende Systeme wirken, sind dem menschlichen Erscheinungsbild nachempfunden. Der Bereich der Robotik  umfasst auch nicht-menschenähnliche Roboter, die etwa in Fertigungsprozessen in der Industrie eingesetzt werden. Vor allem die anthropomorphen Roboter werfen ethische Fragen auf. Dazu zählt etwa, in welchen Bereichen und für welche Aufgaben solche Roboter eingesetzt werden sollen und wann ihr Einsatz unmöglich erscheint, weil er Konsequenzen hat, die nicht geltenden Wertvorstellungen entsprechen. Eine solche Diskussion findet gegenwärtig etwa im Bereich Pflege statt. Hier gibt es zahlreiche Einsatzbereiche, in denen Roboter entlasten könnten.

Der Deutsche Ethikrat veröffentlichte im März 2020 eine Stellungnahme dazu, wie ein ethischer Umgang mit Robotern in der Pflege aussehen könnte. Er kommt zum eindeutigen Schluss, dass sie menschliches Personal nicht ersetzen dürfen. Mit ihrer Hilfe könnten bestehende personelle Engpässe nicht beseitigt werden. Roboter seien nur in bestimmten Kontexten ethisch vertretbar, etwa bei schweren Tätigkeiten wie dem Heben bewegungseingeschränkter Menschen. Jedoch dürfe ein Roboter niemals den zwischenmenschlichen Kontakt ersetzen.

Auch der Grad der Autonomie von Robotern steht in der Diskussion (siehe auch Kapitel Kriminalität, Sicherheit und Freiheit). Eine übergeordnete Frage dabei ist: Wie selbstständig dürfen Roboter Entscheidungen treffen? Und wer übernimmt die Verantwortung für mögliche Konsequenzen dieser Entscheidungen? Die ethische Debatte behandelt hierbei, analog zur Tierethik, die Frage, ob und ab wann etwas als ein Geschöpf gilt, das eigene Rechte verdient. Letztendlich geht es dabei um das grundlegende Verhältnis zwischen Menschen und Robotern.

Elektronische Gefährten

Frau Darling, Sie untersuchen als Roboterethikerin die Interaktion zwischen Menschen und Maschinen. Bei Ihren Vorträgen sieht man Sie immer wieder mit einem "Pleo", einem Baby-Dino-Roboter. Wie würden Sie Ihre Beziehung beschreiben?

Ich habe 2007 von diesem Spielzeug, dem Baby-Dino-Roboter aus Japan, gelesen und einen bestellt, weil mich zunächst die Technik interessiert hat. Er ist mit Mikrofonen, Berührungssensoren und Infrarotkameras ausgestattet und sehr gut darin, lebensnahes Verhalten nachzuahmen. Aber dann ist etwas passiert, was mich selbst überrascht hat: Ich habe eine emotionale Bindung zu ihm aufgebaut.
Menschliche Charakteristika wie Kreativität, Emotionalität und Empathie sowie die Fähigkeiten, vielfältige Probleme auf ebenso vielfältige Weise zu lösen und abzuwägen, helfen uns, unsere Definition von Humanität zu schärfen. Insofern bringt die Digitalisierung nicht nur fortlaufend neue Technologien in unser Leben. Vielmehr hält sie uns dazu an, uns als Menschen unserer Humanität zu vergewissern und uns zugleich unseres Einflusses auf die technologische Weiterentwicklung bewusst zu werden.

Warum KI den Menschen nicht ersetzen kann

Der Glaube daran, dass Computer demnächst ein Bewusstsein entwickeln werden und uns Menschen dann sagen, wo's langgeht, hat sich außerhalb des Silicon Valley noch nicht allgemein durchgesetzt. Intuitiv scheint sich irgendetwas gegen die Vorstellung zu sträuben. Aber wenn man den Glauben in dessen einzelne Bestandteile zerlegt, stößt man auf lauter Annahmen, die durchaus auf breites Einverständnis zählen dürften: Den Menschen mache im Wesentlichen aus, was in seinem Gehirn vorgeht; Gehirntätigkeit sei Informationsverarbeitung; Informationen seien Daten.

KI ist nur ein Werkzeug

[…] Herr Dräger, […] was ist Ihr Verständnis von Künstlicher Intelligenz?

Ich finde den Begriff Künstliche Intelligenz […] problematisch, weil er suggeriert, dass diese maschinelle Intelligenz uns ersetzt – so wie ein künstliches Hüftgelenk unser natürliches Hüftgelenk ersetzt. Ich selbst favorisiere den Begriff "erweiterte Intelligenz", weil es genau darum geht: Es gibt manches, für das wir Menschen nicht gebaut sind, etwa die Analyse riesiger Datenmengen. Das kann uns die Maschine abnehmen. Aber sie kann uns eben nicht abnehmen, ethische Ziele zu setzen, zu plausibilisieren und zu kontrollieren. Das sind menschliche Eigenschaften – und das werden auch im KI-Zeitalter menschliche Eigenschaften bleiben.

Jaana Müller-Brehm, Philipp Otto, Michael Puntschuh

Jaana Müller-Brehm

Jaana Müller-Brehm ist Sozialwissenschaftlerin und übernimmt beim iRights.Lab analytische, redaktionelle und koordinatorische Aufgaben in den Themenfeldern Öffentlichkeit, Demokratie, Menschenrechte, Gesellschaft und Bildung immer im Zusammenhang mit der Digitalisierung.


Philipp Otto

Philipp Otto ist Gründer und Direktor des Think Tank iRights.Lab und einer der führenden Digitalisierungsexperten in Deutschland. Er ist Jurist und war Visiting Researcher beim Berkman Center for Internet & Society an der Harvard University. Auch leitet er das Innovationsbüro Digitales Leben des BMFSFJ und verschiedene weitere hochrangige Bundesprojekte in anderen Häusern. Er hat eine Vielzahl an Büchern, Aufsätzen und strategischen Analysen an der Schnittstelle zwischen Recht, Technik, Gesellschaft und Politik im Kontext der Digitalisierung veröffentlicht.


Michael Puntschuh

Michael Puntschuh ist Sozialwissenschaftler und Projektkoordinator beim iRights.Lab. Zu seinen Arbeitsgebieten gehören Menschenrechte online, Governance des Cyberspace und Digitale Ethik sowie andere gesellschaftliche und rechtliche Fragen digitaler Technologien.


Nach oben © Bundeszentrale für politische Bildung Zur klassischen Website von bpb.de wechseln