Dossier

«Pics or it didn’t happen» war gestern

Deepfakes sorgen dafür, dass wir Bildern und Videos immer weniger trauen können. Die Technologie kann politische Desinformation und kriminelle Handlungen befördern. Kein Grund zur Panik, sagt die Juristin Nula Frei – und setzt dabei auf unseren Verstand und eine starke Zivilgesellschaft.

Wolodimir Selenski ruft in einem Video sein Volk zur Kapitulation auf, ein betagter Mann hört seine Enkelin am Telefon flehen, er solle ihr sofort 30’000 Franken für eine überlebenswichtige Operation überweisen, eine Frau sieht auf einem Bild bei WhatsApp, wie ihr Mann Sex mit einer Unbekannten hat. Was diesen drei Fällen gemein ist: Sie haben sich so nie abgespielt – und doch waren sie genauso zu sehen oder zu hören. Es handelt sich um Deepfakes. Unter dieser Bezeichnung, die sich aus den englischen Begriffen Deep Learning und Fake zusammensetzt, versteht man täuschend echt wirkende Audio-, Bild- oder Videoaufnahmen, die von künstlicher Intelligenz erzeugt werden. Schon kurze Aufnahmen reichen, um basierend auf dieser Originaldatei einen Menschen alles Mögliche sagen und machen zu lassen.

«Vielfach Angstmacherei»

Eine gruselige Vorstellung, doch die Juristin Nula Frei, die derzeit an der Studie «Deepfakes und manipulierte Realitäten» mitarbeitet, relativiert: «Je länger ich mich mit dem Thema befasse, desto weniger gruselig finde ich es. In der öffentlichen Debatte schwingt vielfach Angstmacherei mit, es wird die menschliche Kapazität ignoriert, kritisch zu sein und Sachen zu hinterfragen.» Frei betrachtet es als Aufgabe der Wissenschaft, die Diskussion zu versachlichen, aufzuzeigen, dass die Deepfake-Technologie auch für sinnvolle Zwecke verwendet werden kann – etwa in Form attraktiver Visualisierungen im Bildungsbereich oder bei der Rekonstruktion von Tathergängen in der Kriminalitätsbekämpfung.

Doch egal wie sachlich darüber debattiert wird, es bleibt dabei: Deepfakes bergen Gefahren. Nula Frei hat einen juristischen und politikwissenschaftlichen Hintergrund, kennt also sowohl die Gefahren der politischen Desinformation als auch jene im Bereich des Verbrechens. Was bereitet ihr am meisten Sorgen? «Der Aspekt der Kriminalität. Der Enkeltrick etwa ist halt schon noch einmal perfider und erfolgversprechender, wenn die Stimme gefälscht werden kann. Problematisch ist zudem der ganze Bereich der geschlechtsspezifischen Gewalt.»

Pornografie allgegenwärtig

Tatsächlich ist das Thema Deepfakes eng verbunden mit dem Thema Pornografie. «Die ersten Deepfakes waren pornografische Darstellungen, in denen die Gesichter prominenter Frauen in Sexszenen eingefügt wurden.» Auch heute ist die Problematik allgegenwärtig. Schätzungen zufolge machen pornografische Darstellungen 96 Prozent aller Deepfakes aus. «Solche Bilder oder Videos können auf zwischenmenschlicher Ebene grossen Schaden anrichten. Problematisch ist ausserdem, dass sie juristisch teils schwierig zu handhaben sind.»

Verwendet jemand unsere Stimme oder unser Bild ohne Einwilligung, ist das eine Persönlichkeitsverletzung, gegen die wir zivilrechtlich vorgehen können. Auf strafrechtlicher Ebene präsentiert sich die Situation jedoch komplexer. Es ist zwar strafbar, jemanden ungefragt pornografisch zur Schau zu stellen. Ein geschlossenes Forum im Internet etwa, gilt allerdings nicht als öffentliche Darstellung. Entsprechend fallen pornografische Deepfakes oft nicht unter den Tatbestand der Pornografie. Eine wichtige Ausnahme gibt es jedoch: Die Darstellung von Kindern bei sexuellen Handlungen ist immer strafbar – selbst wenn die Dateien nur auf dem eigenen Handy gespeichert werden. Wenn also Jugendliche von anderen Jugendlichen, die noch nicht 18 Jahre als sind, einen pornografischen Deepfake erstellen, ist das strafrechtlich automatisch relevant.

Braucht es Anpassungen im Strafrecht?

Und doch stellt sich die Frage: Bietet die aktuelle Schweizer Gesetzgebung noch genügend Schutz? Oder braucht es Anpassungen? «Es lohnt sich, darüber zu diskutieren, ob gewisse Aspekte nicht strafbar werden müssten», sagt Frei. «Von jemandem ein Nacktbild zu erstellen, ist im Moment nicht strafbar, egal ob es weltweit verbreitet oder nur in einem Chat geteilt wird.» Der Grund: Ein Nacktfoto fällt nicht unter Pornografie, solange es bloss unangenehm und peinlich für die betroffene Person ist. Es muss schon eine klare sexuelle Konnotation aufweisen, also zum Beispiel eine Person in aufreizender Pose zeigen, um strafbar zu sein. So kommt es, dass es eine beliebte Spielart bei Deepfakes ist, Leute auszuziehen. «Da ist die Frage berechtigt, ob das nicht strafbar sein sollte. Denn sobald ein Handeln strafrechtlich relevant ist, liegt es an der Staatsanwaltschaft und der Polizei, Untersuchungen durchzuführen. Betroffene Personen müssen dann nicht mehr den zivilrechtlichen Weg beschreiten, bei dem die Beweislast bei ihnen liegt, sondern eine Anzeige genügt. Das ist eine Erleichterung», erklärt Nula Frei.

© stablediffusionweb.com
Probleme bei der Rechtsdurchsetzung

Die aktuelle Gesetzgebung ist aus Sicht der Juristin nicht das Hauptproblem. «Das grösste Problem ist die Rechtsdurchsetzung.» Was nützt es, nach einer Ehr- oder Persönlichkeitsverletzung auf dem beschwerlichen zivilrechtlichen Weg eine Unterlassungsklage einzureichen, wenn die Bilder in Sozialen Netzwerken bereits tausendfach geteilt wurden und niemand weiss, wer sie hochgeladen hat?

«Es braucht einerseits eine bessere Kooperation zwischen den Staaten, dass zum Beispiel eine Strafe auch in den USA durchgesetzt wird, wenn die Person in der Schweiz verurteilt wird», sagt Frei. «Andererseits braucht es mehr Pflichten für die grossen Plattformbetreiber, mit den Behörden zu kooperieren, ihnen beispielsweise IP-Adressen und die Identität anonymer Nutzer preiszugeben.» Bestrebungen sind im Gang, im August ist in der Europäischen Union das Gesetz über digitale Dienste in Kraft getreten. «Auch die Schweiz versucht, Plattformen besser zu regulieren, allerdings steht sie noch ganz am Anfang. Der erste Gesetzesentwurf soll 2024 folgen.»

Gefahr für die Demokratie?

Juristisch also wird nach Lösungen gesucht. Doch welche Auswirkungen hat es aus gesellschaftlicher und politischer Sicht, wenn wir unseren Augen und Ohren nicht mehr trauen können? Politiker_innen kann in Zukunft jede beliebige Aussage in den Mund gelegt werden. Darauf machte die News-Seite Buzzfeed schon vor fünf Jahren aufmerksam, als sie ein Deepfake-Video von Barack Obama erstellte, der darin Donald Trump beschimpfte. Es ist eines der bekanntesten Deepfake-Videos und war als Warnung gedacht, Buzzfeed wollte explizit auf die Gefahren für die Demokratie hinweisen. Nula Frei sieht es nicht ganz so dramatisch, sie vertritt den Standpunkt, dass durch Deepfakes nicht ein neues Problem entstanden ist, sondern ein bereits bestehendes Problem um eine weitere Ebene erweitert wurde. «Politische Desinformation ist kein neues Phänomen. Fake News gibt es schon lange, sie werden mit solchen Bildern und Videos höchstens glaubwürdiger. Wir sollten keine Panik schieben, sondern weiter unser menschliches Urteilsvermögen stärken.»

Mediendidaktik an Schulen

Dabei ist ein Umdenken notwendig. «Pics or it didn’t happen», lautet eine auf Social Media beliebte Aufforderung, wenn jemand mit etwas prahlt, ohne Beweise zu liefern. Doch nur weil etwas auf einem Bild zu sehen ist, heisst das längst nicht mehr, dass es auch passiert ist. Ein Beispiel dafür war das Foto von Papst Franziskus in Designer-Daunenjacke, das im Frühling für Aufsehen sorgte. «Es gab Leute, die das für echt hielten, es stellte sich dann aber schnell heraus, dass es ein Deepfake ist. So wird sich das entwickeln, die klassischen Medien, die mit ihrer Sorgfaltspflicht Informationen überprüfen und eine kritische Zivilgesellschaft werden schnell mit dem Finger darauf zeigen und Fakes entlarven», ist Frei überzeugt.

Wie aber schafft man es, dass möglichst viele Menschen dieser kritischen Zivilgesellschaft angehören und auch Bilder und Videos nicht immer für bare Münze nehmen? «Das Wichtigste ist die Stärkung der Medienkompetenz, und zwar vor allem im Bereich social media literacy. Mit Mediendidaktik und -erziehung in Schulen sowie Aufklärungskampagnen für die Bevölkerung sollte die kritische Haltung gefördert werden», sagt Frei. «Noch ist es anspruchsvoll, Deepfakes zu erstellen, die wirklich überzeugend sind. Das gelingt nur ressourcenstarken Akteur_innen. Es ist jedoch davon auszugehen, dass sich die Technik weiterentwickelt und die Schwelle niedriger wird. Umso mehr muss den Leuten klargemacht werden, dass es mehr braucht als Augen und Ohren.»

Die Technologie wird sich auch auf der Gegenseite weiterentwickeln. Detektionssoftware, die Deepfakes entlarvt, wird ebenfalls ausgeklügelter werden. Doch womöglich kann auch die irgendwann wieder umgangen werden. In diesem Katz-und-Maus-Spiel wird deshalb etwas immer wichtiger werden, das mit Technologie nichts zu tun hat: unser Verstand.

Unsere Expertin Nula Frei ist Lehr- und Forschungsrätin am Departement für internationales Recht und Handelsrecht. Sie hat Rechts- und Politikwissenschaft studiert und arbeitet derzeit an der von TA-Swiss in Auftrag gegebenen Studie «Deepfakes und manipulierte Realitäten» mit, die im Frühjahr 2024 publiziert wird.

nula.frei@unifr.ch