Der persönlichkeitsrechtliche Schutz vor „Deepfakes“

Deepfakes

antto – stock.adobe.com

Fakes in den Medien sind in aller Munde: Ob Fake News, Deepfakes oder Fake-Filme – sie alle stellen einen Risikofaktor in den heutigen Medien dar, weil Menschen sie in ihr Denken und Handeln einbeziehen können.

Ziel der Initiatoren ist es, im Zuge einer solchen Positionierung ein bestimmtes Wirklichkeitsbild zu verbreiten und etablieren. 

Auch Corona verhilft den Fake-News zu nie dagewesener Präsenz. So verbreitet sich in den Sozialen Medien eine Flut von unbewiesenen Stories. Sind wir dieser Manipulation schutzlos ausgeliefert?

Deepfakes: Eine neue Qualität der Desinformation?

Deepfakes finden vor allem in der politischen Einflussnahme, aber auch in anderen Bereichen Anwendung. Beliebt sind zum Beispiel parodistische Videos, bei denen in der Regel aber vollkommen klar ist, dass es sich um eine manipulierte Aufnahme handelt. Eine Gefahr, dass die Aufnahmen für echt gehalten werden könnten, besteht dabei meist nicht.

Weniger lustig ist der Einsatz von Deep-Fake-Technologie im Bereich der Pornografie. Hier werden die Gesichter von Personen in pornografische Aufnahmen eingefügt – ein schwerer Verstoß gegen die Persönlichkeitsrechte und je nach Fall sogar eine Straftat.

Was sind Deepfakes?

Doch was genau sind Deepfakes eigentlich? Sie stellen eine technisch neue Methode zur Erstellung von Medien, unter anderem mit Personenbezug, dar. Es handelt sich dabei um Falschinformationen. Im Gegensatz zu gewöhnlichen Fake News, wie Gerüchte oder Bildmontagen, die im qualitativen Journalismus bei sorgfältiger Recherche kaum eine Chance auf glaubwürdige Verbreitung haben, weil schon die Beweisgrundlage fehlt; sieht es bei sogenannten Deepfakes ganz anders aus. Denn hierbei handelt es sich um täuschend echt wirkende audiovisuelle Inhalte – Videos – die mit Hilfe von künstlicher Intelligenz erstellt wurden. So können sie kaum von echten Videos unterschieden werden. Grundsätzlich sind sie zwar kein neues Phänomen, allerdings ermöglichen Deepfakes eine stark wachsende Verbreitung. Und da sie sich außerdem weitgehend von einer realen Vorlage lösen, stellen sie einen Anlass dar, um die Ansätze des persönlichkeitsrechtlichen Instrumentariums aus Kunsturhebergesetz und Allgemeinen Persönlichkeitsrecht auf ihre Zukunftsfähigkeit hin zu überprüfen.

So kann es sich um Texte und Bilder in Phishing-E-Mails handeln, aber auch gefälschte Sprachnachrichten – scheinbar vom Chef, der einen Notfall habe und dringend Geld brauche. Häufig eingesetzt wird die sogenannte Deepfake-Technologie vor allem dazu, Köpfe von prominenten Frauen auf jene von Pornodarstellerinnen zu setzen – was zu einem gezielten Schaden führt.

Deepfakes als Gefahr für die Öffentliche Meinungsbildung

Neben den harmlosen Verwendungsfeldern von Deepfakes, beispielsweise im Unterhaltungsbereich, wo sich Filmaufnahmen durch die Technik optimieren lassen, nehmen auch die missbräuchlichen Verwendungsfelder immer weiter zu. Die rasante Verbreitung der Deepfakes durch die sozialen Medien befeuert zudem das Ausmaß der möglichen Schäden, da sie die Schnelligkeit des Schadenseintritts erhöhen und dessen Intensität meist erheblich vertiefen.

Diese technischen Möglichkeiten stellen aber auch und vor allem eine ernsthafte Gefahr für den politischen Betrieb und das gesellschaftliche Vertrauen dar. Weil die Bedeutung der Sozialen Medien immer weiter zunimmt, entsteht auch ein immer größerer Einfluss der Personen in den sozialen Netzwerken auf die Meinungsbildung. Doch hier spielen nicht nur die einzelnen Personen, wie Influencer, eine Rolle. Denn die sozialen Medien sind primär durch einige Unternehmen geprägt, die auf Basis von Algorithmen oder Künstlicher Intelligenz entscheiden, welche Informationen den einzelnen Usern überhaupt noch zur Verfügung gestellt werden.

Auch wenn so – scheinbar – unseren (persönlichen) Interessen nachgegangen wird, führt dies im Enddefekt dazu, dass das ursprüngliche Ziel des Internets immer weiter in den Hintergrund rückt. Denn Ziel war es, jeder Person die Möglichkeit zu geben, sich weltweit jederzeit frei und umfassend informieren zu können. Eine Vorauswahl an Informationen aufgrund früherer Interessen war gerade nicht die Intention. Der Raum für die Meinungsbildung wird damit – womöglich völlig unbemerkt – immer kleiner. Von Neutralität und Meinungsvielfalt keine Spur.

Rechtliche Herausforderung: Ausreichend Schutz durch bestehende Gesetze?

In Anbetracht der Gefahren stellt sich nun die Frage, wie das geltend gemachte Recht dem Phänomen der Deepfakes begegnet und ob zusätzlicher Regelungsbedarf für die Zukunft besteht.

Ansprüche aus Persönlichkeitsrecht

Da Deepfakes aber noch nicht allzu lange im Internet kursieren, sind sie noch keinem eigenen Regelungsregime unterworfen, weswegen sich ihre rechtliche Behandlung nach den allgemeinen Vorschriften, in erster Linie nach dem Zivil- und Strafrecht, richten. So können die Verbreitung und Vervielfältigung von Deepfakes, aber auch deren Herstellung zahlreiche zivilrechtliche Abwehr- und Schadensersatzansprüche auslösen. In den Fällen, in denen Personen in einen sie bloßstellenden, diskreditierenden oder gar pornografischen Kontext versetzt werden, kommen etwa Ansprüche auf Schadensersatz und Schmerzensgeld auf Grund einer persönlichkeitsverletzenden, unerlaubten Handlung in Betracht.

Ansprüche aus der DSGVO

Daneben liegt sowohl in der Herstellung als auch in der Verbreitung eines persönlichkeitsverletzenden Deepfakes zugleich jeweils eine unbefugte Verarbeitung personenbezogener Daten, für die den Hersteller oder Verbreiter als Verantwortlichen Löschungspflichten nach Art. 17 der Datenschutz-Grundverordnung (DSGVO) sowie Schadensersatzansprüche nach Art. 82 DSGVO treffen können.

Denn das abgelichtete Bildnis einer Person stellt ein personenbezogenes Datum dar – unabhängig davon, ob die Daten gefälscht sind oder nicht. Hier muss der Sinn und Zweck der Deepfakes miteinbezogen werden – dieser legt ja gerade darin, dass die jeweiligen Abbildungen einer Person zugeordnet werden, die diskreditiert werden soll. Damit ist die Person identifiziert oder identifizierbar im Sinne des Art. 4 Nr. 1 der DSGVO. Von einer informierten, freiwilligen auf den konkreten Zweck bezogene Einwilligung nach Art. 6 Abs. 1 lit. a in Verbindung mit Art. 7 DSGVO dürfte bei Deepfakes gerade nicht ausgegangen werden.

Diese Umstände führen dazu, dass gegenüber den Verantwortlichen nach Art. 82 DSGVO sowohl ein materieller als auch ein immaterieller Schadensersatz seitens des Abgebildeten besteht. Findet man also heraus, wer die verantwortliche Person ist, so scheint die Datenschutz-Grundverordnung bis dato den besten Schutz vor Deepfakes zu geben.

Ansprüche aus dem KUG

Die Frage, wie sich das Allgemeine Persönlichkeitsrecht, die Rechte aus dem Kunsturhebergesetz (KUG) und die Datenschutzgrundverordnung zueinander verhalten, gibt jedoch noch Klärungsbedarf.

Das KUG wäre wohl über die Öffnungsklausel des Art. 85 DSGVO anwendbar. Dann stellt sich dennoch die Frage, ob es sich bei Deepfakes um Bildnisse im Sinne des § 22 KUG handelt – was sich als umstritten erweist. Ein Bildnis ist immer dann anzunehmen, wenn aus der Ablichtung für Dritte aufgrund der äußeren Erscheinung die Person in erkennbarer Weise abgelichtet ist. Entscheidend ist, wer für einen objektiven Dritten erkennbar ist und nicht wer tatsächlich abgelichtet wurde – es kommt also lediglich auf die subjektive Erkennbarkeit an.

Unabhängig davon, ob es sich um ein Bildnis handelt, kann aber grundsätzlich jede betroffene Person darüber entscheiden, wie und wo ihr Bildnis zu Schau gestellt wird. Daher steht die Verbreitung und Veröffentlichung von Bildnissen immer unter einem Einwilligungsvorbehalt der betroffenen Person. Eine Rechtfertigung für die zur Schaustellung oder Veröffentlichung kann sich also nur aus einer Einwilligung ergeben. Allerdings müsste sich eine solche Einwilligung bei Deepfakes nicht nur auf das Originalbildnis beziehen, sondern auch auf die geänderte Ablichtung des Deepfakes.

Doch wer würde eine solche Einwilligung erteilen? Demnach ist es wohl nicht vorstellbar, dass eine rechtmäßige Verbreitung und Veröffentlichung von Deepfakes angenommen werden kann. Auch die Schrankenregelung aus § 23 Abs. 1 KUG unter Berücksichtigung des berechtigten Interesses der abgebildeten Person oder deren Angehörigen nach § 23 Abs. 2 KUG dürfte nicht greifen, auch wenn ein Fall des § 23 Abs. 1 Nr. 1-4 KUG vorliegt.

Geringer Schutz gegen Deepfakes, dennoch gute Aussichten

Die rasante Weiterentwicklung künstlicher Intelligenz ermöglicht die Herstellung von Bildern, Ton- und Filmaufnahmen, die täuschend echt Geschehnisse wiedergeben, die in Wirklichkeit nie passiert sind. Es werden Personen gezeigt, die etwas tun oder sagen, was sie in Wahrheit nie gesagt oder getan haben. Dies führt letztlich zu einem Sicherheitsproblem – daher sollten Unternehmen, Personen und Institutionen die Macht von Deepfakes nicht unterschätzen. Denn die rechtlichen Schutzmaßnahmen sind zurzeit noch sehr dünn und reichen nicht aus, um den betroffenen Personen ausreichenden Schutz zu bieten.

Das Problem bleibt: Je eher eine Information in das eigene Weltbild passt, desto eher glauben Menschen auch daran. So muss die Qualität der Fälschungen gar nicht immer überragend sein, solange sie Menschen in der eigenen Meinung bestärken.

Der erste und einfachste Schritt ist zunächst: aufmerksam zu bleiben und jede Quelle kritisch zu hinterfragen – handelt es sich um eine glaubwürdige oder nicht so glaubwürdige Quelle? Trotzdem muss gegen die Verantwortlichen von Deepfakes auch weiter anderweitig vorgegangen werden können, weil es sich dabei gerade nicht nur um ein scherzhaftes Kavaliersdelikt handelt und auch nicht nur Einzelpersonen, wie Sie und ich betroffen sind. Vielmehr wird die Allgemeinheit in ihren wesentlichen demokratischen Belangen beeinflusst und tangiert. Der erste Schritt in die richtige Richtung ist dennoch getan: Auf europäischer Ebene hat die Kommission mit einem Verordnungsentwurf zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz angezeigt, wie sie mit Deepfakes in Zukunft umzugehen gedenkt.

Exit mobile version