OLG-Urteil: Plattformen müssen Deepfake-Videos jetzt selbst erkennen!
Das Oberlandesgericht (OLG) Frankfurt am Main hat am 4. März 2025 eine wegweisende Entscheidung getroffen, die das Vorgehen von sozialen Medien gegen rechtsverletzende Inhalte wie Deepfake-Videos betrifft. Konkret entschied das Gericht, dass Plattformbetreiber wie Meta nicht nur auf Hinweise zu rechtsverletzenden Inhalten reagieren, sondern auch selbst aktiv nach sinngleichen Inhalten suchen müssen. Dies betrifft vor allem Inhalte, die trotz abweichender Gestaltung identisch in Aussage und Inhalt sind. Die Akteure dieser Entscheidung verweisen auf einen Fall, der Dr. Eckart von Hirschhausen betrifft, der Opfer manipulierter Videos wurde, in denen er fälschlicherweise als Werbender für ein Abnehmprodukt dargestellt wurde. Das OLG stellte fest, dass es nicht ausreicht, lediglich den gemeldeten Beitrag zu löschen; die Plattformen müssen auch eigenständig tätig werden, um ähnliche, aber nicht direkt gemeldete Inhalte zu entfernen, um gegen die Verbreitung von Falschinformationen vorzugehen.
Der Gerichtsprozess begann im Juli 2024, als Dr. von Hirschhausen, unterstützt durch anwaltliche Hilfe, die Löschung eines spezifischen Videos beantragte. Nach der Analyse der Situation stellte das Gericht fest, dass Meta auch bei einem weiteren, nahezu identischen Video, welches die gleichen Aussagen enthielt, hätte tätig werden müssen. Im November 2024 erweiterte Dr. von Hirschhausen seinen Antrag, und das Oberlandesgericht gab ihm in Teilen Recht, indem es die Verbreitung des identischen Videos untersagte. Dieses richtungsweisende Urteil stellt klar, dass Host-Provider dazu verpflichtet sind, Maßnahmen zu ergreifen, um das Verbreiten von Falschinformationen aktiv zu bekämpfen und einem größeren Schutz der Betroffenen zu ermöglichen.
Verpflichtung zur aktiven Suche
Die rechtlichen Vorgaben, die das OLG in seiner Entscheidung formulierte, besagen klar, dass Plattformbetreiber nach einem konkreten Hinweis auf einen rechtsverletzenden Inhalt eigenständig nach sinngleichen Inhalten suchen müssen. Solche Inhalte können durch identische Texte oder Bilder, jedoch durch abweichende Gestaltung (zum Beispiel andere Auflösungen oder Filter), entstehen. Ein entscheidender Punkt in diesem Zusammenhang ist, dass eine separate Abmahnung für jedes ähnliche Video nicht notwendig ist, wenn diese nahezu identisch sind. Dies stellt einen Fortschritt in der Bekämpfung von Deepfakes dar, insbesondere in Anbetracht der Tatsache, dass Fakes das Denken und Handeln der Menschen in der Öffentlichkeit beeinflussen können und somit eine erhebliche Gefahr für die Meinungsbildung darstellen.
Die Entscheidung hat auch Konsequenzen für die rechtliche Verantwortung der Plattformen. Diese müssen nun sicherstellen, dass sie die technischen Mittel bereitstellen, um identische oder sinngleiche Inhalte zu erkennen. Diese rechtlichen Entwicklungen erfolgen vor dem Hintergrund, dass die Nutzung von Deepfakes zunehmend in verschiedenen Bereichen, von politischer Einflussnahme bis zur Pornografie, an Bedeutung gewonnen hat. Die rechtlichen Schutzmaßnahmen gegen solche Inhalte sind jedoch derzeit noch unzureichend, was oft eine Herausforderung für die Plattformen und Betroffenen darstellt.
Auswirkungen auf die Betroffenen
Die Konsequenzen dieser Entscheidung sind von großer Bedeutung: Betroffene müssen in Zukunft nicht mehr aktiv nach rechtsverletzenden Inhalten suchen. Die Plattformen tragen nun ein höheres Maß an Verantwortung und können sich nicht mehr nur auf explizite Meldungen verlassen. Anwaltliche Unterstützung kann hierbei entscheidend sein, um Rechte effektiv durchzusetzen. Im besprochenen Fall von Dr. von Hirschhausen wurde ein beanstandetes Video nach einer Meldung entfernt, das nahezu identische Video folgte erst nach einer zweiten Meldung. Diese Art der rechtlichen Auseinandersetzung zeigt, wie wichtig es ist, dass Plattformen ihren Verpflichtungen nachkommen und schneller auf Hinwiese reagieren, um solche Falschinformationen zu beseitigen.
Insgesamt zeigt das Urteil des OLG Frankfurt am Main die Notwendigkeit einer intensiveren rechtlichen Klärung im Umgang mit Deepfakes und anderen Formen der Desinformation. Die Europäische Kommission hat bereits einen Verordnungsentwurf zur Regelung von künstlicher Intelligenz und Deepfakes vorgelegt, was aufzeigt, dass der rechtliche Rahmen für diese Technologie noch nicht vollständig etabliert ist. Die Zukunft wird zeigen, wie Plattformen diese neuen Anforderungen umsetzen und die Rechte der Betroffenen schützen können.
Details | |
---|---|
Quellen |