Dossier

Lauter Gretchenfragen

Kann eine Künstliche Intelligenz (KI) gut oder böse sein? Wie weit kann man einer KI gesunden Menschenverstand beibringen? Und überhaupt: Wer weiss das schon? Expert_innenrunde mit Juristin Nula Frei und den Informatikexperten Denis Lalanne und Simon Ruffieux.

Eine kursorische Frage, zum Einstieg: Wie baut man eine KI, die sich ethisch verhält? Oder: Wie baut man Ethik in eine KI ein?

Nula Frei: Ich weiss gar nicht, ob ich die Kompetenzen habe, darauf zu antworten. Ich weiss weniger wie man eine KI bauen sollte, als vielmehr, wie wir sie regulieren sollten.

Denis Lalanne: Wenn wir von Kompetenzen reden: Das mag nun vielleicht ein wenig provokativ klingen, aber ich habe den Eindruck, dass es in vielen Bereichen ausserhalb der Computerwissenschaften an KI-Fachwissen fehlt. Wie reguliert man also etwas, das man gar nicht recht versteht? Die Modelle werden immer komplexer, selbst die KI-Spezialist_innen haben zuweilen Mühe zu erklären, wie sie genau funktionieren.

Nula Frei: Das ist natürlich die grosse Frage. Wir haben es auf jeden Fall mit einem «moving target» zu tun, die Technologie entwickelt sich ja so schnell. Das erzeugt natürlich Reibung zwischen Entscheidungsträgern und Rechts­experten auf der einen und Forschenden auf der anderen Seite. Es geht letztlich um die grosse Frage, wie viel technische Expertise vorhanden sein muss auf Seiten der Politik. Ich würde mal sagen: Der interdisziplinäre Austausch wird auf jeden Fall immer wichtiger.

Denis Lalanne: Das sehe ich auch so, Interdisziplinarität ist der Schlüssel. Eine andere Option gibt es gar nicht.  Dabei ist mir aufgefallen, dass es gerade die Ethiker sind, die häufig fehlen in den entsprechenden Kommissionen.

Es war tatsächlich sehr schwierig, eine Ethik-Fachperson zu finden, die sich auch mit KI auskennt. Und das gilt nicht nur für die Unifr.

Denis Lalanne: Dabei gäbe es genug Problemstellungen, manche haben schon fast Klassikerstatus. Kennen Sie zum Beispiel das Trolley-Problem?

Sie meinen das Gedankenexperiment, das unseren Umgang mit utilitaristischer Ethik aufzeigt? Ein Tramwagen wird unweigerlich einen Unfall verursachen und man muss entscheiden, wie die Weiche gestellt werden soll.

Denis Lalanne: Genau. Im Zusammenhang mit selbstfahrenden Autos wird das plötzlich sehr konkret. Unlängst gab es am MIT eine Studie, die global Daten dazu gesammelt hat und deutliche interkulturelle Unterschiede bei den ethischen Präferenzen ergab. Da frage ich mich: Muss auch die Rechtsprechung entsprechend lokal ausgeformt werden?

Nula Frei: Natürlich muss Recht grundsätzlich den ethischen Standards einer jeweiligen Gesellschaft entsprechen. Das heisst aber nicht, dass wir kleinteilige und untereinander inkompatible Regelungen anstreben, im Gegenteil. Meiner Ansicht nach ist gerade KI ein Paradebeispiel dafür, dass wir übergreifende Regelungen brauchen. Wir haben es hier mit allgemeinen Herausforderungen zu tun, die – zumindest in Europa – auch einen gemeinsamen gesetzgeberischen Rahmen brauchen. 

Denis Lalanne: Ich bin allerdings sehr froh, dass sich die Regulierungsbemühungen in Europa von denen in den USA unterscheiden. So wie dort derzeit reguliert wird, würde ich ganz ehrlich nicht mit KI-Anwendungen leben wollen.

Simon Ruffieux: Oder in China!

Nula Frei: Da gibt es auf jeden Fall grosse Unterschiede. Insbesondere wenn wir uns ansehen, welche Anwendungen nicht reguliert, sondern rundweg verboten werden sollten: Das unterscheidet sich sehr wesentlich zwischen Europa, Amerika und China.

In welchen Feldern zum Beispiel?

Nula Frei: Es scheint in unserem kulturellen Kontext zum Beispiel einen Konsens zu geben, dass wir nichts wollen, was einem Social Scoring nahekommt, wie es gerade in China Realität wird. Gesichtserkennung in Echtzeit im öffentlichen Raum dagegen: Das wird gerade sehr lebhaft debattiert, das scheint mir noch nicht entschieden. Insofern ist es letztlich eine Frage der demokratischen Entscheidung, welche Nutzungen der KI wir wollen und wo wir Grenzen ziehen.

Simon Ruffieux: Ich bin nicht sicher, ob das funktionieren wird. Eines der Probleme mit Ethik und KI ist, dass die Implementierung und Nutzung schwer zu kontrollieren ist. Wenn ich etwas in einem laschen regulatorischen Rahmen entwickeln kann, dann kann es potentiell überall in der Welt zum Einsatz kommen. Gerade China ist da derzeit sehr offen, da werden KI-Anwendungen entwickelt, die potentiell problematisch sind. Insofern sehe ich auch Open Source kritisch – können wir, wenn die Modelle ganz offen sind, noch kontrollieren, wer was wie nutzt? Ich sehe da tatsächlich ein Missbrauchspotential von sehr mächtigen KI-Werkzeugen, die für jedermann leicht zugänglich sind.

Aber gleichzeitig gibt es die Forderung, KI-Modelle möglichst transparent zu machen, das würde doch für Open Source sprechen?

Simon Ruffieux: Ja. Ich sehe auch, wie wichtig es ist, die Modelle transparenter zu machen und dafür zu sorgen, dass möglichst alle Zugang zu diesen Technologien bekommen, dass also die Entwicklung nicht hinter verschlossenen Türen passiert. Aus dieser Perspektive ist die Demokratisierung der KI natürlich sehr zu begrüssen. Es ist ein komplexes Problem – ohne simple Lösung.

Was würde das denn heissen, auf einer ethischen Ebene? Über Pro und Kontra demokratisch zu entscheiden?

Denis Lalanne: Da passiert ja gerade einiges, es entstehen eine ganze Reihe von Initiativen, die meisten mit einem eher technischen Fokus. Was mir fehlt ist eine Koordination dieser Initiativen, um dieses Wissen, diese Reflexion zu den Entscheidungsträgern bringen.

Nula Frei: Wobei sich natürlich die Frage stellt, wann der Staat überhaupt intervenieren muss. Eigentlich sagt man: Sobald es Auswirkungen gibt, die Menschen direkt schaden. Typischerweise ist das der Fall, wenn es ein grosses Machtgefälle gibt, wenn Dinge zur Anwendung kommen, die für die meisten Menschen nicht zu durchschauen und zu verstehen sind oder gegen die man sich nicht wehren kann. Dann werden wir als Nutzerinnen und Nutzer verwundbar.

Denis Lalanne: Aber wann genau kommt denn diese Schwelle? Was wäre ein «Regulations-Trigger»? Es ist ja so, dass die Entwicklungen kontinuierlich vorangehen, in kleinen Schritten. Das erinnert ein wenig an die Art und Weise, wie Social Media zur gesellschaftlichen Normalität wurde: Zuckerberg und Konsorten trieben das bestimmt ohne bösen Willen voran, aber es wurde immer bedeutender
und allmählich zeigten sich auch gefährliche Effekte.

Nula Frei: Das ist auf jeden Fall ein Problem. Leider fehlt uns oft das Verständnis dessen, was gerade passiert. Sei es auf gesetzgeberischer Seite oder im Parlament – da wurden bei den letzten Wahlen ja sogar Digital-Expert_innen aus dem Nationalrat wieder abgewählt. Es ist wirklich eine Herausforderung, auf dem Laufenden zu bleiben und nicht einfach von den Entwicklungen überrollt zu werden. Sonst geht es uns wie dem Frosch im sich langsam aufheizenden Wasser, der am Schluss bei lebendigem Leibe gekocht wird, weil er der graduellen Veränderung der Temperatur keine Beachtung schenkt.

Und gerade als Politiker_in will man dem Fortschritt ja nicht im Wege stehen.

Nula Frei: Ja, wir folgen da oft auch ein wenig blind diesem Fortschritts-Paradigma, das hat gerade das Beispiel Social Media schön gezeigt. Es stimmt, Facebook hatte sicher keine bösen Absichten, dafür spielten umso stärkere kommerzielle Anreize. Da bedient man sich natürlich gern dieser positiven Fortschrittserzählung, um sein Geschäftsmodell zu legitimieren. Mitunter beschleicht mich das Gefühl, digitale Tools würden eingesetzt, weil sie für «Fortschritt» stehen und nicht weil sie einen echten Nutzen bieten.

Simon Ruffieux: Unbedingt. Und oft wissen wir gar nicht, wo überall sie eingesetzt werden, gerade im Fall der KI. Auch da wieder: Man nutzt KI-Tools ganz einfach deshalb, weil sie zur Verfügung stehen, ohne wirklich zu prüfen ob sie auch wirklich leisten können, was man sich von ihnen verspricht. Vor allem bei Behörden ist das beunruhigend. Zum Beispiel bei der Zürcher Polizei, die Tools nutzt, um die Rückfallquote von Straffälligen abzuschätzen. Dabei wurde von der Forschung wiederholt aufgezeigt, dass diese KI-Technologien nicht ausgereift sind, dass sie Vorurteile reproduzieren und auch gerne falsche Vorhersagen liefern. Trotzdem kommen sie zum Einsatz, ohne dass man sich die Zeit und Mühe nehmen würde, die Nutzer_innen über die Fallstricke aufzuklären. Das ist der Umstand, der mir derzeit am meisten Sorge macht.

Denis Lalanne: Ich bin da ehrlich gesagt hin- und hergerissen. Ich gebe Simon recht in seiner Kritik, aber man muss auch sagen: Die KI hilft uns eben auch, solche Biases überhaupt zu sehen. Insofern kann dieselbe Technik ein Mittel zur Diskriminierung sein und ein Mittel, sich solcher Diskriminierungen bewusst zu werden. Ich finde es insofern immer schwieriger, in Kategorien von «guter» und «böser» KI zu denken.

Dasselbe sagt man auch von einem Auto, oder von einem Kernkraftwerk: Es kommt auf die Nutzung an, und Risiken gehören inhärent zu Technologie. Insofern könnten wir auch auf ältere Technikethik zurückgreifen. Könnte man diese Frameworks nicht auch auf KI anwenden?

Denis Lalanne: Ja und Nein. Ja, es stimmt, wir mussten uns immer wieder mit radikal neuen Technologien auseinandersetzen. Insofern können wir bestimmt bestehende Rahmenbedingungen auch auf KI anwenden, zum Beispiel um sicherzustellen, dass wir keine KI entwickeln, die Diskriminierung befördert. Das kategorisch Neue liegt meiner Ansicht nach in der Geschwindigkeit der Veränderung, hier liegt die grosse Schwierigkeit.

© stablediffusionweb.com

Wobei: Über Diskriminierung mussten wir ja noch nie nachdenken im Zusammenhang mit Technologie – wenn ich ein Auto baue, zum Beispiel, dann brauche ich mir darüber nicht den Kopf zu zerbrechen.

Nula Frei: Es ist allerdings eine gute Frage, inwiefern wir auf frühere Rahmenbedingungen zurückgreifen können. Im Zusammenhang mit Diskriminierung kommt mir höchstens Forschung mit genetischen Daten in den Sinn, da gab es meines Wissens eine entsprechende regulatorische Diskussion. Ich glaube tatsächlich, dass KI neue regulatorische Herausforderungen darstellt, weil es nicht einfach gebaut und importiert wird, es ist transnational, es wird in verschiedenen Kontexten eingesetzt, ob es nun Open Source ist oder nicht. Wir können also nicht einfach alte Regeln der Produkthaftung übernehmen, die sich bei technischen Geräten bis jetzt bewährt haben.

Denis Lalanne: Ja, da verschiebt sich etwas. Bisher war Technik einfach ein Werkzeug, jetzt geht es eher in die Richtung, menschliche Intelligenz nachzubauen, wenn nicht gar zu ersetzen. KI kann autonom entscheiden – da müssen wir uns klar machen, in welchen Kontexten das akzeptabel und in welchen es problematisch ist. Am Flughafen, wenn ein automatisiertes Sicherheitssystem Waffen im Gepäck erkennt: Das ist wohl unproblematisch. Aber in Gerichtsprozessen, wo es ein gutes Mass an «gesundem Menschenverstand» braucht?

Nula Frei: Ich habe eben von einem System gelesen, das Kamerabilder von Tramstationen in Zürich auswerten kann: Gibt es Rauch, liegt jemand am Boden und braucht Hilfe? Dann kann entsprechend automatisch Alarm ausgelöst werden – so etwas wäre ja sehr zu begrüssen. Aber wie sieht es bei der Ärztin aus, die mit einem KI-Assistenten arbeitet? Muss sie genau verstehen, wie diese KI funktioniert, um sie im ärztlichen Alltag einsetzen zu können?

In welcher neuen Kategorie könnten wir denn denken, wenn wir es nicht mehr einfach mit «Werkzeugen» zu tun haben? Sollten wir solche Assistenz-Systeme eher als «Kollegen» betrachten, denen wir ethische Frameworks nicht vorschreiben, sondern beibringen?

Simon Ruffieux: Kollegen? Das hätte übrigens ganz entscheidend auch mit der Haftungsfrage zu tun. Der Kollege im Spital sollte immer in der Lage sein zu erklären, wie er zu dieser oder jener Einschätzung gekommen ist. Und in dem Moment übernimmt er auch zumindest einen Teil der Verantwortung, oder rechtlich gesehen: der Haftung für eine Fehlentscheidung. Wir müssen uns klar machen: Auch die allerbesten KI-Systeme werden nicht ganz fehlerfrei arbeiten. Also sagen wir mal, ein Krebs-Assistenz­system liegt in 99 Prozent der Fälle richtig – möglicherweise sogar öfter als es ein menschlicher Arzt tut. Aber das heisst eben auch: es wird 1 Prozent Fälle geben, wo Leute sterben, weil das System falsch entschieden hat. Wenn wir diese KI als «Kollegen» ansehen, müsste sie uns erklären können, wo der Fehler passiert ist.

Und müsste sie sich vielleicht sogar schuldig fühlen? Es ist ja irgendwie unvorstellbar, dass sich eine KI je einem Gerichtsprozess stellen müsste, oder?

Nula Frei: Unter aktuellem Recht ist das tatsächlich ausgeschlossen. Es muss immer einen Menschen geben, der verantwortlich ist für die Nutzung der KI. Aber eben, im oben genannten Fall: Haftet dann automatisch die Ärztin? Diese Fragen sind von den Gerichten noch nicht abschlies­send beantwortet worden, aber es ist klar: Sie werden immer häufiger aufkommen.

Erst kürzlich wurde Tesla von einem US-Gericht entlastet, obwohl die KI nachweislich einen Unfall verursacht hat. Hat sich das Gericht da auch ein wenig aus der Verantwortung gezogen? Sind wir juristisch-ethisch schlicht überfordert und urteilen deshalb nach zu simplen Schemen? Wenn wir die KI nicht verstehen, dann ist eben der Mensch verantwortlich.

Nula Frei: Ja, ich sehe die Gefahr, dass da eine Art von Verantwortungs-Lücken entstehen, dass man die Schuldfrage gar nicht mehr zufriedenstellend beantworten kann. Das Problem müssen wir dringend lösen. Ich habe aber noch eine Frage zur Idee, dass KI so etwas wie einen Kolleginnenstatus haben könnte. Gäbe es denn überhaupt technische Ansätze, wie man Maschinen Ethik beibringen kann?

Denis Lalanne: Die gäbe es, ja. Aber dann müsste man wohl als erstes einmal definieren, was wir mit «ethisch» genau meinen.

Simon Ruffieux: Was zur Frage führt, ob es eine allgemeine Definition überhaupt geben kann. Oder ob die Vorstellungen von Ethik nicht wie gesagt unterschiedlich sind, je nach Kultur. Aber ja, das ist ein grosses Thema bei der Entwicklung grosser Modelle, aktuell ist wohl vor allem ChatGPT interessant: Diesem System wurde zum Beispiel beigebracht, keine Witze über Frauen zu machen.

Wie?

Simon Ruffieux: «Unmoderiert» macht diese KI natürlich Witze über Frauen, das steckt in den Daten drin. Aber in einem zweiten Schritt wurden diese Antworten geratet, von Menschen, die einem entsprechenden Ethik-Kodex folgen, und so hat die Maschine nach und nach gelernt, solche Witze nicht mehr zu machen.

Denis Lalanne: Was eigentlich sehr spannend ist: Wir werden in Zukunft so etwas wie eine Daten-Archäologie machen können und in diesen Lernprozessen der Algorithmen ablesen können, wie es um die jeweiligen Gesellschaften stand, wie liberal, wie restriktiv, wie diskriminierend sie waren.

Dabei würde man ja bestimmt auch Kontexte unterscheiden können. Man bekommt schon ein Gefühl, wie komplex die Diskussion letztlich ist: KI im Spital und ChatGPT, das Witze macht oder sie sich verkneift – das sind ganz andere ethische Kaliber.

Denis Lalanne: Unbedingt, und es ist mir wichtig zu sagen, dass wir nicht nur über Regulation und Grenzen sprechen sollten. Manches werden wir auch nicht zu sehr regulieren wollen. Zum Beispiel hat KI in verschiedenen Feldern das Potential aufgezeigt, uns zu mehr Kreativität zu verhelfen. Dieses Potential sollten wir möglichst frei erkunden können.

Nula Frei: Im Feld der Unterhaltung braucht es wohl tatsächlich nur sehr wenig Regulierung. Wir müssen unbedingt immer den Kontext betrachten und nur da regulieren wo es echte Risiken gibt.

Simon Ruffieux: Einmal mehr, da muss ich widersprechen – so einfach ist es nicht. Denn mitunter ist es sehr schwierig vorherzusehen, wo eine KI-Technologie eingesetzt wird. Noch werden generative KI-Tools wie ChatGPT vornehmlich nur zur Unterhaltung eingesetzt, das stimmt, aber auch da schon zeigen sich negative Auswirkungen. Und wohin geht die Entwicklung noch?

Welche Gefahr sehen Sie denn, gerade im Fall generativer Modelle?

Simon Ruffieux: Ich könnte zum Beispiel ohne weiteres eine Online-Zeitung programmieren, die automatisierte Inhalte erstellt, die also von einer KI generiert ist. Das wäre gar nicht mal so aufwendig. Wenn ich das ohne Redaktion mache, wenn also niemand mehr drüberschaut, dann wird diese Zeitung ziemlich sicher Fake News sowie rassistische und frauenfeindliche Inhalte verbreiten. Und ich werde sogar noch Geld verdienen damit.

Aber von Hollywood-Szenarian à la «Terminator» sind wir ja noch weit entfernt? Sind diese Horrorszenarien einer die Menschheit ausrottenden KI überhaupt hilfreich oder verstellen sie die Sicht auf die relevanten ethischen Probleme?

Denis Lalanne: Wenn wir Risiken und Chancen gut kommunizieren, dann können wir einen Prozess anstossen. Ich mag es nicht besonders, wenn die Diskussion im Entweder-oder-Schema läuft. Ich sehe bei KI wirklich aussergewöhnliche Chancen, wir entwickeln da gerade so etwas wie ein Super-Werkzeug. Es wäre schade, dieses Instrument zu begraben, bevor es wirklich getestet wurde, indem man versucht, die Vorteile und Nachteile zu messen. Horrorszenarien wie in Terminator? Ich sehe sie nicht wirklich – wir können unsere KIs jederzeit stoppen. Oder etwa nicht?

Simon Ruffieux: Noch können wir das, klar. Und genau deshalb ist es so wichtig, diese Kontrollmechanismen jetzt einzubauen. Denn die Risiken werden auf jeden Fall greifbarer. Zum Beispiel wenn man ganze Produktzyklen automatisiert, was bei Medikamenten gerade passiert. Wenn das System offen angelegt ist, kann man es natürlich mit der Suche nach dem effektivsten Wirkstoff betrauen. Man kann aber auch fragen, ob es die tödlichste toxische Substanz der Welt synthetisieren kann. Wenn wir da keine Wertvorstellungen in die Systeme einbauen, dann kann das gefährlich sein. Aber natürlich, die KI wird nicht selbst eine böse Absicht entwickeln, es kommt am Ende immer noch auf die Nutzerinnen an.

Nula Frei: Ich bin auch immer ein wenig skeptisch, wenn es zu sehr dramatisiert wird. Damit wir alle eine ernsthafte Diskussion führen können, ohne Panik zu verbreiten – aber auch ohne die Risiken zu unterschätzen, sehe ich nur einen Weg: Wir müssen unbedingt auf mehr «AI Literacy» in der Gesellschaft hinwirken.

Unsere Expertin Nula Frei ist Lehr- und Forschungsrätin am Departement für internationales Recht und Handels­recht der Universität Freiburg.

nula.frei@unifr.ch

 

 

 

Unser Experte Denis Lalanne ist Professor für Informatik am Departement für Informatik und Co-Direktor des Human IST Institute.

denis.lalanne@unifr.ch

 

 

 

 

Unser Experte Simon Ruffieux ist Lehrbeauftragter am Departement für Informatik und Senior Researcher am Human IST Institute.

simon.ruffieux@unifr.ch