Diese Website verwendet Cookies
Diese Seite nutzt Website Tracking-Technologien von Dritten, um ihre Dienste anzubieten, stetig zu verbessern und Werbung entsprechend der Interessen der Nutzer anzuzeigen. Ich bin damit einverstanden und kann meine Einwilligung jederzeit mit Wirkung für die Zukunft widerrufen oder ändern.


Deepfakes erkennen: Definition, Merkmale und zukünftige Bedrohungsszenarien
Deepfakes sind längst kein Nischenthema mehr, sondern eine reale Gefahr für Unternehmen, Privatpersonen und die öffentliche Kommunikation. Mit Hilfe moderner KI lassen sich Gesichter, Stimmen und ganze Körper täuschend echt manipulieren.

Dieser Artikel definiert, was Deepfakes sind, klärt, ob diese legal sind, wie sie erstellt werden und wie man Deepfakes erkennen kann.
Das Wichtigste in Kürze
- Deepfakes sind Medieninhalte, die mithilfe von künstlichen neuronalen Netzen so verändert oder neu generiert wurden, dass sie nicht als Fälschung erkennbar sind.
- Die Erstellung von Deepfakes erfordert große Datensätze mit Bildern und Videos, um die Mimik und Bewegungen einer Zielperson zu erlernen.
- Die Qualität von Deepfake-Videos hat sich in den letzten Jahren erheblich verbessert, was die Erkennung erschwert.
- Die Erkennung von Deepfakes kann durch die Analyse von Artefakten und Ungenauigkeiten in Bild- und Videomaterial erfolgen.
Was sind Deepfakes?

Deepfakes sind Videos, Bilder oder Audios, die mithilfe von künstlicher Intelligenz (KI), insbesondere neuronalen Netzen, so manipuliert oder neu generiert wurden, dass sie täuschend echt aussehen und nicht als Fake erkannt werden können. So können zum Beispiel Videos entstehen, die private oder öffentlich bekannte Personen zeigen, wie diese Aktivitäten ausführen oder Aussagen treffen, die sie so nie getan oder geäußert hätten.
Das KI-System, welches das Deepfake erzeugen soll, benötigt für die Erstellung eine große Menge an Daten, beispielsweise Fotos, Audios oder Videos der betroffenen Person aus verschiedenen Winkeln, um so dessen Eigenheiten bezüglich der Mimik und Gestik sowie der Gesichtszüge zu lernen. Je mehr Daten dem Programm zur Verfügung stehen, desto realistischer wird das Endresultat.
Bekanntes Beispiel:
Ein gerne zitiertes Beispiel für ein überaus realitätsnahes Deepfake-Video und die damit verbundene Gefahr ist das sogenannte Obama Video aus dem Jahr 2018. Entwickelt wurde es von dem Medienunternehmen BuzzFeed in Kooperation mit dem Schauspieler Jordan Peele und seiner Produktionsfirma Monkeypaw Productions. In dem Clip scheint der ehemalige US-Präsident eine Warnung über falsche Online-Informationen auszusprechen. In Wahrheit stammt der gesprochene Text jedoch von Peele. Das Video steht im Zusammenhang mit einer Kampagne, die bewusst demonstrieren soll, wie echt KI-manipulierte oder -erstellte Medien inzwischen wirken. Es zeigt, wie leicht Nutzer durch realistische Fälschungen beeinflusst werden können und weshalb eine kritische Prüfung von Inhalten auf Webseiten oder in sozialen Medien sowie ein wachsames Sicherheitsbewusstsein heutzutage unverzichtbar ist.
https://www.youtube.com/watch?v=cQ54GDm1eL0
Woher kommt der Trend?
Der Deepfake-Trend entstand aus einer Kombination technischer Fortschritte und gesellschaftlicher Entwicklungen. Grundlage sind sogenannte Generative Adversarial Networks (GANs), eine Form der Künstlichen Intelligenz, die seit etwa 2014 existiert und es ermöglicht, Bilder und Videos so realistisch zu erzeugen, dass sie kaum von echten Aufnahmen zu unterscheiden sind.
Die wachsende Verfügbarkeit von Bild- und Videomaterial auf Social-Media-Plattformen lieferte die nötigen Daten für das Training dieser KI-Modelle. Ab 2017/2018 wurden zudem erste Deepfake-Softwaretools frei zugänglich, wodurch nicht mehr nur Forschende, sondern auch die breite Öffentlichkeit eigene manipulierte Inhalte erstellen konnte.

Ihren Anfang im privaten Kreise fanden Deepfakes im Jahr 2017 auf Reddit, einem sozialen Netzwerk, welches als Forum und Nachrichtenaggregator agiert. Hier bildete sich in kürzester Zeit eine große Community, die mittels einer speziellen Software die Gesichter von prominenten Personen auf diese der Darsteller in pornografischen Inhalten legt.
Seither nimmt die Anzahl der Deepfakes im Internet stetig und unaufhaltsam zu. Die Zahl der Deepfake-Videos ist laut mehreren Quellen von etwa 14.678 im Jahr 2019 auf rund 95.820 Videos im Jahr 2023 gestiegen. Das entspricht einem Wachstum von circa 550 % innerhalb von vier Jahren. Laut Landesmedienzentrum Baden-Württemberg sind diese nach wie vor größtenteils dem Pornografie-Sektor zuzuordnen.
Arten von Deepfakes
Face-Swapping
Face-Swapping ist die klassische Deepfake-Methode. Hier wird das Gesicht einer Person auf den Körper einer anderen Person übertragen. Da Mimik sowie Beleuchtung grundsätzlich beibehalten werden, wirkt der Effekt besonders täuschend echt.
Face-Reenactment / Puppet Master
Beim Face-Reenactment werden Mimik, Kopfbewegung oder Lippenbewegung einer Zielperson manipuliert. In der Folge kann eine Person in einem Video so aussehen, als würde sie etwas sagen oder fühlen, was sie in Wirklichkeit nie gesagt oder gefühlt hat.
Sogenannte Puppet Master Deepfakes gehen einen Schritt weiter. Hier werden praktische alle Gesichtsausdrücke, Augen, Kopf und Mimik separat gesteuert.
Gesichtssynthese / Face Generation
Bei der Gesichtssynthese werden komplett neue, einzigartige, künstliche Gesichter erstellt, die keine realen Personen darstellen. Erstellt werden sie mithilfe generativer Modelle (GANs). Einsatz finden Gesichtssynthesen für Avatare, virtuelle Persönlichkeiten sowie CGI.
Lip-Sync
Lip-Sync ist eine Methode, bei der die Lippenbewegungen einer Person so angepasst werden, dass diese zu einer anderen Tonspur passen. So lässt sich beispielsweise ein Video so manipulieren, dass eine Person etwas sagt, was sie im Original nicht gesagt hat.
Audio-Deepfake / Voice Cloning
Beim Voice Cloning beziehungsweise einem Audio-Deepfake wird die Stimme einer Person synthetisch nachgebildet. Hierbei kommen in der Praxis zwei Techniken zum Einsatz:
- Text-to-Speech: Ein Text wird in gesprochene Sprache mit der Stimme der Zielperson verwandelt.
- Voice Conversion: Die Stimme in einer echten Aufnahme wird so bearbeitet, dass sie klingt wie eine bestimmte andere Person.
Körper-Puppeteering
Hier werden die Bewegungen des gesamten Körpers manipuliert oder neu animiert. Dies kann zum Beispiel in Kombination mit Gesichtsaustausch oder Audio-Manipulation geschehen, um besonders glaubwürdige Deepfakes zu erzeugen.
Wie Fake-Videos und -Bilder mit künstlicher Intelligenz erstellt werden

Die Deepfake-Technologie basiert auf Deep Learning, einer KI-Methode, die sich grob an der Funktionsweise des menschlichen Gehirns orientiert. Dabei kommen künstliche neuronale Netze zum Einsatz, die aus vielen miteinander verbundenen Einheiten bestehen. Diese Netze sind in mehreren Schichten organisiert und besitzen typischerweise eine Input-Ebene, verschiedene verarbeitende Zwischenschichten sowie eine Output-Ebene, in der das System die endgültige Ausgabe erzeugt.
Diese Art der KI-Computerprogramme erlernt ihre Fähigkeiten auf Grundlage riesiger Datensätze selbst.
Die Technik hinter Deepfakes
Der Prozess der Erstellung eines Deepfakes lässt sich grob in drei Phasen unterteilen. Hinter jeder Phase steckt eine komplexe KI-Technologie, welche in der Praxis allerdings bereits erstaunlich leicht zugänglich geworden ist.
1.Datengewinnung, -extraktion und Analyse
Anfangs benötigt das System möglichst viele Aufnahmen der Zielperson. Moderne Deepfake-Software setzt dabei häufig auf sogenannte Autoencoder. Diese bestehen aus zwei Komponenten: dem Encoder, der das Gesicht in seine charakteristischen Merkmale zerlegt, und dem Decoder, der diese Merkmale später wieder zu einem vollständigen Gesicht zusammensetzt.
Je mehr hochauflösendes Bild- und Videomaterial zur Verfügung steht, desto präziser kann das Modell die biometrischen Eigenschaften einer Person erfassen. Schon ein Satz von etwa dreihundert Bildern reicht aus, um ein täuschend echtes Abbild zu erzeugen.
2.Training des Modells
Im nächsten Schritt wird das neuronale Netz auf diese gesammelten Daten trainiert. Es lernt typische Details wie Gesichtsform, Proportionen, Mimik und wiederkehrende Ausdrucksbewegungen. Dieser Trainingsprozess kann je nach Umfang des Datenmaterials und der Rechenleistung mehrere Stunden bis Tage dauern. Am Ende verfügt das Modell über ein abstrahiertes Verständnis davon, wie das Gesicht der Zielperson unter unterschiedlichen Bedingungen aussieht.
3.Zusammensetzen des Deepfakes
Sobald das Modell die Merkmale der Zielperson sicher beherrscht, beginnt der eigentliche Austauschprozess. Beim klassischen Face-Swapping werden zwei Autoencoder-Paare genutzt: ein Set für die Originalperson im Video und ein Set für die Person, deren Gesicht eingesetzt werden soll. Der Merkmalsraum der ersten Person wird anschließend mit dem Decoder der zweiten Person verknüpft, sodass das System das neue Gesicht korrekt auf Kopfbewegungen, Lichtverhältnisse und Mimik im Video überträgt.
Alternativ kommt heutzutage auch häufig ein Generative Adversarial Network (GAN) zum Einsatz. Dabei arbeiten zwei neuronale Netze gegeneinander: ein Generator, der immer realistischere Gesichter produziert und ein Prüfsystem (Discriminator), das versucht, Fälschungen zu erkennen. Durch diesen Wettbewerb werden die Ergebnisse von Iteration zu Iteration besser, bis selbst kleinste Details verblüffend echt wirken.
Deepfakes von Gesichtern

Bei der Manipulation von Gesichtern kommen vorrangig zwei Verfahren zum Einsatz, die heute aufgrund der verfügbaren Rechenleistung selbst mit handelsüblichen Grafikkarten in hoher Qualität umgesetzt werden können.
Face-Swapping ist die am weitesten verbreitete Methode. Dabei wird das Gesicht einer Person durch ein künstlich erzeugtes oder zuvor extrahiertes Gesicht ersetzt. Damit dies realistisch wirkt, müssen die zugrunde liegenden neuronalen Netze zuvor mit einer großen Menge an Bildmaterial trainiert werden. Die Systeme analysieren Gesichtsstruktur, Konturen, Lichtverhältnisse sowie biometrische Merkmale und bilden daraus ein Modell, das später präzise in ein Video eingesetzt werden kann. Auf diese Weise entstehen sowohl klassische Deepfakes als auch komplett neue, bisher nicht existierende Identitäten.
Ergänzend dazu wird häufig Face-Reenactment eingesetzt. Hier werden Kopfbewegungen, Mimik und Lippenbewegungen manipuliert, sodass die Zielperson im Video scheinbar etwas sagt oder ausdrückt, das sie niemals getan hat. Diese Technik sorgt für den besonders glaubwürdigen Effekt, da die KI feinste Details repliziert und Bewegungsabläufe realistisch nachbildet.
Deepfakes von Stimmen

Deepfakes beschränken sich längst nicht mehr auf manipulierte Bilder und Videos. Auch Stimmen lassen sich heute täuschend echt nachbilden. Grundlage dafür sind die zwei Technologien Text-to-Speech und Voice Conversion.
Beim Text-to-Speech gibt die anwendende Person lediglich einen beliebigen Text vor. Das System wandelt diesen anschließend in ein künstlich erzeugtes Audiosignal um. Moderne Modelle analysieren dafür zuvor typische Sprachmerkmale der Zielperson, wie beispielsweise Tonhöhe, Betonung oder Sprechgeschwindigkeit. Dadurch klingt die generierte Ausgabe nicht lediglich wie eine natürliche Stimme, sondern lässt sich auch so anpassen, dass sie stark an die gewünschte echte Person erinnert.
Die zweite Methode, Voice Conversion, funktioniert umgekehrt: Hier dient ein vorhandenes Audiosignal als Ausgangspunkt. Das System überträgt dessen sprachlichen Inhalt, verändert jedoch die stimmliche Charakteristik so, dass die Aufnahme wie die Stimme einer anderen Person klingt. Semantik und Satzbau bleiben erhalten, während Klangfarbe, Akzent oder individuelle Eigenheiten vollständig ausgetauscht werden.
Beide Methoden werden auf Basis von Deep Learning trainiert. Für die besten Ergebnisse benötigt die KI eine riesige Menge an Daten sowie Audiomaterial der zu kopierenden Person in einer hohen Qualität.
Deepfakes erkennen: Das sind die Anzeichen
Die Technologie hinter künstlicher Intelligenz wird immer besser und in der Folge werden Deepfakes immer realistischer und schwerer von der Realität zu unterscheiden. Allerdings gibt es einige typische Merkmale, Fehler und Anzeichen, die gefälschte Medien mit einem scharfen Blick entlarven lassen.
Unnatürliche Gesichter, Mimik und Körperbewegungen
Ein wichtiges Warnsignal für Deepfakes sind Bewegungen und Darstellungen, die nicht zur natürlichen menschlichen Körpersprache passen. Oft wirken Körperhaltungen leicht verzogen oder ruckartig, weil einzelne Bildframes nicht harmonisch ineinandergreifen. Auch Proportionen können unlogisch erscheinen, etwa wenn Schulterbreite, Kopfposition oder Armbewegungen nicht zum restlichen Körper passen.
Bei Gesichtern zeigen sich Auffälligkeiten häufig in der Mimik. Manche Emotionen wirken künstlich oder bleiben zu starr, während andere übertrieben und unnatürlich erscheinen. Ein klassischer Hinweis sind unlogische Licht- und Schattenverhältnisse oder Haare, die „unruhig“ oder grafisch falsch dargestellt sind. Auch ein leerer Blick oder ein Gesichtsausdruck, der nicht wirklich zu den gezeigten Bewegungen passt, kann ein Hinweis auf Manipulation sein.
Zudem haben viele Modelle Schwierigkeiten mit Profilansichten oder schnellen Kopfbewegungen. Wenn der Kopf stark gedreht wird, kommt es daher häufig zu sichtbaren Fehlern, etwa verzerrten Gesichtszügen, fehlerhaften Schattenwürfen oder einer Mimik, die nicht mehr glaubwürdig wirkt.
Fehlendes Blinzeln
Menschen müssen alle 4 bis 6 Sekunden blinzeln. KI vergisst dies oft. Achten Sie daher auf fehlendes oder merkwürdiges Blinzeln.
Sichtbare oder unscharfe Übergänge
Wenn bei der Erstellung eines Deepfakes Face-Swapping verwendet wurde, zeigen sich häufig typische Unstimmigkeiten. Dazu gehören abweichende Hauttöne oder Texturen an den Übergängen zwischen Gesicht und Körper. Auch unscharfe Kanten im Bereich von Hals, Haaransatz und Wangen können ein Hinweis auf eine Manipulation sein. Auffällig ist zudem, dass die dargestellte Person oft keine individuellen Zahnstrukturen zeigt und auch feine Details wie einzelne Haarsträhnen nicht realistisch dargestellt werden.
Falsche Aussprache
Bei der Verwendung des Text-to-Speech-Verfahrens tritt häufig der Fehler auf, dass Wörter nicht korrekt ausgesprochen werden oder die Person mit dem falschen Akzent spricht. Ersteres ist beispielsweise der Fall, wenn die Stimme auf Deutsch trainiert wurde, im Text jedoch englische Wörter verwendet werden.
Monoton oder robotisch
Auffällig ist oft eine monotone oder leicht metallische Stimmfarbe. Viele synthetisch erzeugte Stimmen klingen flach, gleichförmig und ohne die typischen Schwankungen, die echte Sprache prägen. Besonders bei längeren Sätzen fehlt der natürliche Rhythmus oder eine passende Betonung. Das kann ein wichtiger Hinweis darauf sein, dass eine Stimme durch ein Text-to-Speech-Modell erzeugt wurde.
Verzögerung
Ein klassisches Indiz für manipulierte Inhalte sind nicht korrekt synchronisierte Lippenbewegungen. Wenn die Animation verzögert wirkt, einzelne Silben nicht zu den Mundbewegungen passen oder der Mund „nachhängt“, deutet das häufig auf einen Deepfake hin. Gerade bei Face-Reenactment-Videos entstehen solche Unstimmigkeiten häufig.
Hintergrundgeräusche
Auch der Ton im Hintergrund kann verdächtig sein. Deepfake-Audio enthält oft unnatürliche Stille, abrupt abgeschnittene Geräusche oder eine akustische Umgebung, die nicht zum eigentlichen Video passt. Bei Text-to-Speech fällt häufig auf, dass längere Passagen zu „sauber“ wirken, während Voice-Conversion-Clips gelegentlich inkonsistente Hintergrundklänge erzeugen. Wenn Geräusche, Raumhall oder Klangfarbe plötzlich wechseln, kann das ein Hinweis auf eine manipulierte Aufnahme sein.
Quelle
Ein zentraler Schritt bei der Überprüfung verdächtiger Videos oder Audiodateien ist die Analyse der ursprünglichen Quelle. Sehen Sie sich das Video zunächst vollständig an und prüfen Sie, woher es stammt und wer es veröffentlicht hat. Taucht der Clip nur auf anonymen Social-Media-Profilen oder fragwürdigen Plattformen auf, ist besondere Vorsicht geboten. Seriöse Inhalte lassen sich meist auch auf etablierten Nachrichtenseiten oder offiziellen Kanälen wiederfinden.
Hilfreich ist außerdem ein Blick auf Faktencheck-Portale wie Mimikama, CORRECTIV oder den dpa-Faktencheck. Oft wurden virale Fake-Videos dort bereits analysiert und eingeordnet.
Zusätzlich lohnt sich eine eigene kurze Recherche: Finden sich alternative Versionen des Videos, beispielsweise in Medienarchiven oder in Berichten vertrauenswürdiger Quellen. Durch einen Vergleich mehrerer Varianten lassen sich Manipulationen häufig schneller erkennen.
Reverse Image Check
- Machen Sie einen Screenshot von dem Bild oder Video.
- Laden Sie den Screenshot auf Bing Images oder Google Images hoch.
- Überprüfen Sie, ob das Medium von anderen Quellen verwendet wird, woher es stammt und ob es alternative Versionen gibt.
Tools
Zahlreiche Unternehmen beschäftigen sich bereits mit der Erstellung von Computerprogrammen, basierend auf KI, die Deepfakes erkennen können und so zur Prävention beitragen sollen.
Einige bereits verfügbare Tools sind:
Deepfake Total von Fraunhofer AISEC – https://deepfake-demo.aisec.fraunhofer.de/
DeepFake-o-meter von der University at Buffalo – https://zinc.cse.buffalo.edu/ubmdfl/deep-o-meter/landing_page
Deepware Scanner – https://scanner.deepware.ai/
Bedrohungsszenarien
Obwohl Deepfakes häufig in harmlosen Kontexten genutzt werden, etwa für Parodien oder kreative Projekte, birgt die Technologie ein erhebliches Potenzial für Missbrauch. Manipulierte Bilder, Videos oder Audiospuren können gezielt Falschinformationen verbreiten, zur Erstellung erotischer Inhalte missbraucht werden, politische Konflikte anheizen oder sogar als Werkzeug moderner Kriegsführung dienen.
Cybermobbing und Verleumdung
Manipulierte Bilder, Videos oder Audioaufnahmen können gezielt eingesetzt werden, um Einzelpersonen zu diskreditieren oder sozial zu isolieren. Deepfakes ermöglichen es, Personen scheinbar glaubwürdig in Situationen zu zeigen, die nie stattgefunden haben, was Betroffene massiv unter Druck setzt. Die perfide Wirkung entsteht dadurch, dass Außenstehende die Fälschung oft nicht erkennen und die Inhalte ungefiltert weiterverbreiten. Für Betroffene bedeutet das psychischen Stress, berufliche Risiken und teils einen erheblichen Reputationsschaden. Besonders gefährlich ist, dass Deepfakes in sozialen Netzwerken binnen Sekunden ein großes Publikum erreichen und sich kaum noch einfangen lassen, wenn sie erst einmal viral gegangen sind.
Propaganda
Ein weiteres hochrelevantes Risiko liegt im Einsatz von Deepfakes für politische Manipulation. Mit Video- oder Audio-Fälschungen lassen sich Aussagen, Handlungen oder Skandale inszenieren, die es nie gegeben hat. Solche Inhalte können strategisch eingesetzt werden, um das Vertrauen in Institutionen zu untergraben, Wahlentscheidungen zu beeinflussen oder gesellschaftliche Spannungen gezielt zu verstärken. Da Deepfakes immer realistischer werden und sich in Sekundenschnelle verbreiten, steigt das Risiko, dass sie öffentliche Debatten verzerren oder sogar reale politische Entscheidungen beeinflussen.
Betrug und Phishing
Deepfakes entwickeln sich zunehmend zu einem Werkzeug für Betrug im digitalen Raum. Unternehmen berichten bereits heute von einer deutlichen Zunahme an Angriffen, bei denen manipulierte Audio- oder Videoaufnahmen eingesetzt werden, um Mitarbeitende zu täuschen oder vertrauliche Informationen zu erschleichen. Laut einer Erhebung des Sicherheitsunternehmens Regula gaben bis zum Jahr 2024 rund 49 Prozent der befragten Firmen an, bereits mit Deepfake-Betrugsversuchen konfrontiert worden zu sein. Zwischen 2022 und 2024 stieg die Zahl der gemeldeten Fälle in Unternehmen weiter an. Video-Deepfakes legten in diesem Zeitraum um 20 Prozent zu, während Audio-Deepfakes um 12 Prozent zunahmen.
Auch in Deutschland zeigt sich dieser Trend sehr deutlich. Nach Angaben von datensicherheit.de haben Deepfake-Betrugsversuche im ersten Quartal 2025 im Vergleich zum Vorjahreszeitraum um etwa 1100 Prozent zugenommen. Diese enorme Entwicklung verdeutlicht, wie attraktiv Deepfake-Techniken für Cyberkriminelle geworden sind. Besonders gefährlich sind täuschend echt wirkende CEO-Betrugsmaschen, fingierte Telefonanrufe mit nachgeahmten Stimmen (Enkeltrick 2.0) sowie manipulierte Videokonferenzen. Die Kombination aus überzeugenden Audiofälschungen und dem Vertrauensvorschuss gegenüber bekannten Personen macht solche Angriffe so effektiv und für Betroffene schwer erkennbar.
Fake News und Desinformation
Neben klassischen Betrugsfällen spielen Deepfakes auch im Bereich politischer und gesellschaftlicher Manipulation eine immer größere Rolle. Durch realistisch wirkende manipulierte Videos oder Audioaufnahmen lassen sich Nachrichten verfälschen, Aussagen aus dem Kontext reißen oder Personen gezielt diskreditieren. In sozialen Netzwerken verbreiten sich solche Inhalte oft schneller, als sie überprüft werden können, und erreichen ein großes Publikum, bevor Faktenchecks veröffentlicht werden.
Deepfakes können genutzt werden, um politische Skandale künstlich zu erschaffen, das Vertrauen in demokratische Prozesse zu untergraben oder gesellschaftliche Gruppen gegeneinander auszuspielen. Besonders gefährlich ist dabei nicht nur die Täuschungsabsicht selbst, sondern auch der sogenannte Liar’s Dividend. Dieser beschreibt die Situation, in der echte Aufnahmen oder Beweise als angeblich manipuliert abgetan werden, was es für die Öffentlichkeit schwieriger macht, Wahrheit und Fälschung voneinander zu unterscheiden. Deepfakes tragen dadurch erheblich zur Erosion von Vertrauen in Medien, Institutionen und öffentliche Kommunikation bei.
Sind Deep Fakes legal?

In Deutschland existiert bisher noch keine Gesetzesgebung, die zwischen legalen und illegalen Deepfakes entscheidet. Grundsätzlich ist es daher legal, gefälschte Videos, Fotos oder Audios zu erstellen. Allerdings wird es grenzwertig, sobald die Persönlichkeitsrechte eines Menschen verletzt werden oder Deepfakes eingesetzt werden, um kriminelle Aktionen durchzuführen. Hier können Gesetze wie Strafgesetzbuch, Paragraf 201a: Recht am eigenen Bild, Artikel 1 des Grundgesetzes: Schutz der Menschenwürde und das Netzwerkdurchsuchungsgesetz (NetzDG) geltend gemacht werden.
Häufig gestellte Fragen
Ist das Erstgespräch kostenfrei?
Ja, grundsätzlich sind Erstgespräche mit Juris Media kostenfrei. Ohne eine unverbindliche Ersteinschätzung gemeinsam mit einem Juris Media Experten, können wir keine fundierten Einschätzungen zur potenziellen Problemlösung darlegen. Juris Media möchte Ihnen transparent darlegen, welche Schritte zu befolgen sind, um Ihr Problem zu lösen.
Welche Plattformen decken wir ab?
Juris Media ist spezialisiert auf die Plattformen: Facebook, Instagram, TikTok und verschiedene Google Lösungen. Sollten Sie ein Problem mit einer anderen Plattform haben, kontaktieren Sie uns dennoch gerne, um abklären zu können, inwieweit wir Sie unterstützen können.
Wie schnell wird mein Problem gelöst?
Leider lässt sich auf diese Frage keine verbindliche Aussage treffen, da die Dauer der Bearbeitung zum einen mit dem Umfang Ihres Falls zusammenhängt und zum anderen der Austausch mit den Legal Abteilungen der Social Media Netzwerke zeitlich nicht präzise abschätzbar ist. Die Dauer variiert in der Regel zwischen wenigen Wochen und mehreren Monaten.
Was kostet eine Beauftragung?
Die Kosten für eine Beauftragung von Juris Media variieren je nach Größe und Komplexität des Falls. Da jeder Fall einzigartig ist, bieten wir individuelle Lösungen an, die auf Ihre spezifischen Anforderungen zugeschnitten sind. Unsere transparente Preisgestaltung stellt sicher, dass Sie vor der Mandatierung eine verlässliche Kosteneinschätzung für das Verfahren erhalten.
Wie hoch sind die Erfolgsaussichten?
Juris Media kann keine Garantie für eine erfolgreiche Lösung Ihres Social-Media-Problems geben. Nach der erfolgreichen Mandatierung liegt unsere Erfolgsquote jedoch bei über 90%. Sollten wir im ersten kostenfreien Einschätzungstermin keine Chance für eine erfolgreiche Wiederherstellung sehen, kommunizieren wir dies transparent und fair!
Niclas Meister
Agenturinhaber



