Dossier

Label für digitale Nachhaltigkeit

In disziplinenübergreifenden Arbeiten wollen Fachkundige aus der Umweltphilosophie und aus der Informatik die ökologischen wie auch die sozialen Auswirkungen von digitalen Dienstleistungen abschätzen – und sie mit ethisch vertretbaren Grenzwerten in Beziehung setzen.

Wenn ihr Vorhaben eine Partitur wäre, kämen die Paukenschlägerinnen und -schläger voll zum Zug. In ihren Fachbeiträgen geht es um nichts weniger als um die «Bewältigung von ethischen Herausforderungen im Zusammenhang mit künstlicher Intelligenz». Und helfen soll dabei das «Freiburger Modell für eine nachhaltige digitale Ethik», das ein Team um Ivo Wallimann-Helmer, Professor für Umweltgeisteswissenschaften am Departement für Geowissenschaften, und Edy Portmann, Professor am Departement für Informatik, seit etwa zwei Jahren am Erarbeiten ist.

Im gemeinsamen Gespräch gehen die beiden darauf ein, was dieses Freiburger Modell ausmacht – und worauf es abzielt. «Wir wollen mit unserem inter- und transdisziplinären Vorhaben Nachhaltigkeitsstandards für Algorithmen definieren», sagt Wallimann-Helmer. «Und dann in einem zweiten Schritt diese Standards zusammen mit Partnern aus Industrie und Verwaltung in der Praxis testen und etablieren», fährt Portmann fort.

Dass die zunehmende Digitalisierung dazu führt, dass sich auch die ökologischen Auswirkungen der verschiedenen Anwendungen von künstlicher Intelligenz (KI) intensivieren, liegt eigentlich auf der Hand. Doch weil eine bestimmte Anwendung sowohl positive wie auch negative Folgen für die Umwelt nach sich ziehen kann, ist deren Bewertung alles andere als trivial.

Als Beispiel führt Portmann ein Programm an, das die Paketverteildienste darin unterstützt, optimale Routen für die Auslieferung zu finden. Dank solchen optimierten Routen müssen die Mitarbeitenden des Verteildiensts
weniger Kilometer zurücklegen. Dadurch setzen ihre Fahrzeuge weniger gesundheitsschädlichen Feinstaub und weniger Kohlendioxid frei – oder brauchen weniger elek­trische Energie, wenn das Motorrad oder der Kleinbus von Batterien angetrieben wird. Gleichzeitig aber gilt es zu berücksichtigen, dass die für die Berechnung der optimalen Routen eingesetzten Rechner auch Energie benötigen. Und dass die Hersteller der Rechner etwa auch auf seltene Erden angewiesen sind, die nur mit grossem Aufwand aus Minen gewonnen werden, die die Umwelt belasten.

© stablediffusionweb.com

Für ihr «Freiburger Modell für eine nachhaltige digitale Ethik» wollen Wallimann-Helmer und Portmann aber auch die sozialen Auswirkungen der Digitalisierung berücksichtigen. Deshalb lehnen sie sich an die erstmals vor zehn Jahren veröffentlichten Ideen an, die der so genannten Donut-Ökonomie zugrunde liegen: Sie gehen von einem Freiraum für die Menschheit aus, der – wie das runde Süssgebäck mit dem Loch in der Mitte – sowohl nach innen wie auch nach aussen begrenzt ist.

Während der äussere Rand für die verschiedenen Belastungsgrenzen der Erde steht (wie etwa das Artensterben, die Versauerung der Ozeane oder die Abholzung der weltweiten Wälder), symbolisiert der innere Rand die gesellschaftlichen Folgen der Digitalisierung (also etwa die Transformation der Arbeitswelt, die Neuaufteilung des Einkommens, oder eine drohende Ungleichbehandlung, Marginalisierung oder Diskriminierung bestimmter Bevölkerungsgruppen). «Wir möchten aufzeigen, in welchen Bereichen eine Entwicklung möglich ist, die weder die von der Ökologie vorgegebenen planetarischen Grenzen überschreitet, noch die sozialen Grenzen der Gerechtigkeit untergräbt», sagt Wallimann-Helmer.

Digitalisierungsprojekte, die in diesem nachhaltigen Freiraum stattfinden, könnten mit einem Label gekennzeichnet werden, das die Forschenden um Wallimann-Helmer und Portmann im Austausch mit Politik und Wirtschaft schaffen wollen. Wie andere Nachhaltigkeitszertifikate (etwa für das Essensangebot von Kantinen oder für die Bewertung von Gebäuden) könnte auch das Label für nachhaltige Digitalisierung in verschiedene Stufen unterteilt sein. «Wir könnten unterschiedlich nachhaltigen Projekten zum Beispiel Gold-, Silber- und Bronzemedaillen verleihen», führt Wallimann-Helmer aus.

Dass die künstliche Intelligenz uns Menschen schon bald überflüssig macht, befürchtet keiner der beiden Gesprächspartner. «Das Herzstück der heutigen KI sind immer noch die Daten, mit der sie gefüttert wird», sagt Portmann. «Und diese Daten werden von Menschen erstellt, deshalb ist die künstliche Intelligenz auf uns angewiesen», fügt Wallimann-Helmer hinzu.

Doch wenn die Datensätze falsche, veraltete, unvollständige oder auch verzerrte Daten enthalten, können die damit gefütterten Algorithmen «die in unserer Gesellschaft bereits bestehenden Ungleichheiten etwa in Bezug auf Klasse, Rasse und Geschlecht aufrechterhalten und sogar verstärken», schreibt Portmann. Als Beispiel führt er ein KI-Tool an, das Amazon entwickelt hatte, um Stellenbewerbungen zu prüfen. Als sich bald darauf herausstellte, dass das Tool Frauen diskriminierte, stampfte Amazon es wieder ein.

Wie stellen sich Portmann und Wallimann-Helmer eine sozial gerechte künstliche Intelligenz vor? Auch hier greifen die beiden auf Ideen zurück, die vor wenigen Jahren veröffentlicht wurden. So verweisen sie etwa auf die «Ethik-Leitlinien für eine vertrauenswürdige künstliche Intelligenz» der Europäischen Union. Und auf die zahlreichen weiteren Richtlinien, die von Unternehmen wie Microsoft oder IBM, aber auch von Non-Profit-Organisationen wie Amnesty International erstellt worden sind. «Wenn man die vielen Dokumente miteinander vergleicht, fällt auf, dass meist die gleichen ethischen Werte wie etwa der Schutz der Privatsphäre und die Transparenz über das Vorgehen und die Ziele der Algorithmen im Vordergrund stehen», sagt Portmann. «Doch die Herausforderung liegt nicht im Verfassen solcher Richtlinien, sondern in deren Umsetzung.»

Ethische Entscheide berechenbar machen

Um die Herausforderung der Umsetzung zu meistern, möchte Portmann ethische Entscheide berechenbar machen: «Das Ziel ist, geisteswissenschaftliche Konzepte der traditionellen Ethik in konstruktive Algorithmen zu überführen», hält der Informatiker in einem letztjährig erschienenen Fachbeitrag fest. Diese «konstruktiven Algorithmen» sollen «Konversationsschlaufen durchlaufen» und mit Wörtern statt mit Zahlen rechnen können. Das wird es «einer künstlichen Intelligenz erlauben, passende moralische Entscheidungen situativ aus den vorhandenen Informationen und Rahmenbedingungen abzuleiten».

Ob sich dieses Vorhaben so durchführen lässt (und die gewünschten Resultate liefert), muss sich noch weisen. Schon heute jedoch steht fest, dass sich aus dem gezielten Einsatz von prädiktiven Technologien und der immer umfassenderen Sammlung von persönlichen Daten ein grosses Machtmissbrauchspotenzial ergibt. «In den letzten Jahrzehnten sind die Internetgiganten rasant – und weitestgehend ohne demokratische Kontrolle – gewachsen», gibt Wallimann-Helmer zu bedenken. Wie vielen weiteren Forschenden geht es den beiden auch darum, Demokratie und Rechtsstaatlichkeit im Zeitalter der künstlichen Intelligenz zu verteidigen. Oder in den Worten von Wallimann-Helmer: «Wir möchten mit unseren Arbeiten zur Diskussion beitragen, wie eine technologische Unterdrückung der Menschheit vermieden werden kann.»

Unser Experte Ivo Wallimann-Helmer ist Professor für Umweltgeisteswissenschaften an der Universität Freiburg.

ivo.wallimann-helmer@unifr.ch

Unser Experte Edy Portmann ist Leiter der Forschungs­gruppe für Soft and Cognitive Computing und Professor am Departement für Informatik der Universität Freiburg.

edy.portmann@unifr.ch