← Zurück zum Blog

Wer Fake News erkennen kann, erkennt auch Fake-Videos: Ein praktisches Playbook

deepfakes desinformation sicherheit medienkompetenz
Wer Fake News erkennen kann, erkennt auch Fake-Videos: Ein praktisches Playbook

Es gibt ein beruhigendes Narrativ, wonach Deepfakes eine neue, beispiellose Bedrohung sind, die brandneue Fähigkeiten verlangen, die niemand hat. Das Narrativ ist größtenteils falsch. Die Denkbewegungen, die Sie bei einer verdächtigen Schlagzeile ohnehin machen — wo kommt das her, wer profitiert, passt das zu allem, was ich sonst weiß — sind dieselben Bewegungen, die 2026 die meisten Fake-Videos abfangen.

Sie sind aber auch, unangenehmerweise, dieselben Bewegungen, die aufhören zu funktionieren, sobald synthetische Medien einen weiteren Schritt besser werden. Beides ist wahr. Dieser Beitrag geht durch die Heuristiken, die noch tragen, und ist ehrlich, wann sie es nicht mehr tun.

Beginnen Sie mit der Frage, die Sie schon kennen

Wenn Ihnen jemand eine verdächtige Nachricht weiterleitet, tun Sie fast sicher eine Variante davon, ohne es zu merken:

  • Wo kam das ursprünglich her? Ist die Quelle Ihnen bekannt?
  • Berichtet sonst jemand, dem Sie vertrauen, darüber? Wenn nicht, warum nicht?
  • Bestätigt es etwas, das ich ohnehin glauben wollte?
  • Fordert jemand eine konkrete Handlung — spenden, klicken, teilen, in Panik verfallen?

Dieselben Fragen gelten für Video. Das Video ist ein Transportmittel für eine Behauptung. Interrogieren Sie die Behauptung, dann das Transportmittel.

Ebene 1: Herkunft

Herkunft ist der günstigste und nützlichste Filter. Die Frage: Woher kommt diese Datei?

  • Originalquelle. Das Video wurde von der Person, die darin zu sehen ist, über ihren verifizierten Kanal in einem plausiblen Zeitfenster gepostet. Stark.
  • Vertrauenswürdige Sekundärquelle. Eine Nachrichtenorganisation mit einer realen redaktionellen Kette hat das Video einer Story zugeordnet und die Quelle genannt. Mittel.
  • Von Ihrem Cousin aus einer Gruppenchat weitergeleitet. Unbekannter Ursprung. Das ist 2026 die Masse der bösartigen Videos. Schwach bis nichts.

Wenn die Herkunft unbekannt ist, ist alles andere weniger überzeugend, als es sich anfühlt. Ein Video, das echt aussieht und echt klingt, sagt nichts darüber, ob das dargestellte Ereignis stattgefunden hat.

Ebene 2: Bestätigung

Reale Ereignisse hinterlassen mehrere Spuren. Eine öffentliche Person, die etwas Wichtiges sagt, wird normalerweise innerhalb weniger Stunden von mehreren Medien aufgegriffen, von Peers kommentiert und in Sekundärkanälen diskutiert.

  • Reverse-Bildsuche eines Frames (Google Images, Yandex, TinEye). Taucht das Material in einem anderen Kontext — anderes Ereignis, anderes Datum, andere Person — auf?
  • Das angebliche Zitat als Text suchen. Wird es irgendwo berichtet, das nicht downstream dieses konkreten Videos ist?
  • Offizielle Kanäle prüfen. Wenn ein Minister angeblich etwas gesagt hat, ist das Schweigen seines Pressebüros aussagekräftig.

Bestätigung ist langsam und nicht immer klar, aber die langlebigste Heuristik auf dieser Liste, weil sie nicht davon abhängt, Ihre Augen zu täuschen.

Ebene 3: Audio-visuelle Hinweise (veraltet, aber 2026 noch nützlich)

Das sind die Hinweise, auf die sich frühe Deepfake-Erkennungs-Guides verließen. Sie funktionieren immer weniger, je besser die Modelle werden. 2026 fangen sie Amateure, nicht den Stand der Technik.

  • Mundform passt nicht ganz zum Ton, besonders bei Plosiven (p, b, m).
  • Haarränder flackern oder lösen sich an den Schläfen auf.
  • Starre, repetitive Kopfbewegung oder unnatürlich stiller Rumpf.
  • Ohrringe, Brillen oder Earbuds, die zwischen Frames erscheinen und verschwinden.
  • Atemmuster passen nicht zum Sprechrhythmus.
  • Augenblick leicht leblos oder überbetont.
  • Audio ohne Raumton, oder Plosive, die seltsam landen.

Nutzen Sie die Hinweise, verlassen Sie sich aber nicht auf sie. Ein überzeugender 2026er-Deepfake besteht die meisten davon. Ein 2027er besteht alle.

Ebene 4: Verhaltenskontext

Diese Ebene wird mit besseren Modellen nicht schlechter, weil sie sich an der Welt orientiert, nicht an Pixeln.

  • Würde diese Person plausibel das, auf dieser Plattform, an diesem Tag sagen? Öffentliche Personen sind selbstkonsistent. Ein plötzlicher dramatischer Bruch mit allem, was sie sonst gesagt hat, ist verdächtig.
  • Passt die Forderung zur Person? Minister rufen Ihre Buchhaltung nicht wegen Überweisungen an. CEOs schreiben Untergebenen keine DMs mit der Bitte um iTunes-Gutscheine.
  • Wird Dringlichkeit künstlich erzeugt? „Sie müssen in den nächsten 20 Minuten handeln” ist in echter Kommunikation fast nie real.
  • Wird Verifikation abgelehnt? „Erzählen Sie das vorerst niemandem” ist ein Zeichen, dass Sie es jemandem erzählen sollten.

Auf der Verhaltensebene scheitern die meisten erfolgreichen Deepfake-Betrügereien tatsächlich. Das Video ist überzeugend; das Szenario nicht.

Eine Ein-Minuten-Routine

Wenn Sie sechzig Sekunden haben:

  1. Woher kam das? Originalposter, zuverlässige Sekundärquelle oder unbekannt? (20s)
  2. Berichtet sonst jemand? Schnelle Suche nach der Behauptung, nicht dem Video. (20s)
  3. Passt das Verhalten zur Person und zur Plattform? (10s)
  4. Werde ich zu einer konkreten Handlung gedrängt? (10s)

Wenn drei von vier Antworten „nein” oder „unklar” sind, behandeln Sie das Video unabhängig davon, wie echt es aussieht, als unverifiziert. Der Sinn der Routine ist, Ihre Überzeugung von der visuellen Qualität der Datei zu entkoppeln, denn visuelle Qualität ist kein Beweis mehr.

Wo das Playbook an seine Grenzen stößt

Drei Trends verengen das Fenster, in dem perzeptuelle Heuristiken helfen.

  • Modellqualität. Audio-visuelle Tells, die 2023 verlässlich waren, scheitern 2026. 2028 scheitern sie bei Produktionen mittleren Budgets.
  • Echtzeit-Generierung. Live-Call-Deepfakes existieren und verbessern sich. „Gehen Sie in einen Videocall zur Verifikation” ist seit etwa achtzehn Monaten keine saubere Kontrolle mehr.
  • Stimmqualität. Stimmklonen ist für Consumer-Betrug im Wesentlichen gelöst. Wer ausschließlich per Stimme verifiziert, inszeniert Verifikation, er führt keine durch.

Wenn der Oberfläche nicht mehr getraut werden kann, haben Sie zwei Optionen. Bürokratische Kontrollen — Rückrufe auf hinterlegten Nummern, Codewörter, Mehrpersonen-Freigaben für alles, was zählt — wie in unserem Beitrag zu modernen Identitäts-Stacks empfohlen. Oder Vertrauen, das auf Herkunft basiert — nur Medien glauben, die eine nachvollziehbare Signatur einer Quelle tragen, der Sie bereits vertrauen.

Beides sind gute Antworten. Keine davon lautet „schauen Sie genauer auf die Pixel”.

Die langlebige Lösung

Die langlebige Lösung ist, dass Medien an der Quelle nachweisbare Herkunft tragen. C2PA und Content Credentials — signierte, manipulationssichere Metadaten, die bei Aufnahme oder Veröffentlichung angehängt werden — sind der aktuelle ernsthafte Versuch. Ein Video mit gültigem C2PA-Manifest, das es mit einem bekannten Publisher verknüpft, ist Beweis in einer Weise, wie es ein unsigniertes Video in einem Gruppenchat nicht ist.

Dieser Übergang läuft, aber langsam. Die Marken- und Medien-Perspektive beleuchten wir im nächsten Beitrag. Fürs Erste die ehrliche Empfehlung: die alten Muskeln trainieren, öfter anwenden, als Sie glauben zu müssen, und beginnen, Ihr Vertrauensmodell Richtung Herkunft zu verschieben, bevor die perzeptuellen Heuristiken still aufhören, bei Ihnen zu greifen.