de
Search
close-tab-svgrepo-com image/svg+xml2021Timothée Giet
de
close-tab-svgrepo-com
Search result
result for


     Glossar Deepfakes

    Deepfakes

     

     

    Deepfakes - Betrugsrisiko für digitale Prozesse

    Die Qualität von Deepfakes entwickelt sich durch immer bessere KI-Modelle rasant. Dadurch ergeben sich mehr Möglichkeiten für Identitätsdiebstahl, Finanzbetrug und Manipulation digitaler Identifikationsprozesse. Für Unternehmen, die auf sichere Online-Identifikation, KYC und automatisierte Identitätsprüfung angewiesen sind, werden Deepfakes zunehmend zu einem realen operativen und regulatorischen Risiko. Zugleich nimmt die Zahl der dokumentierten Fälle spürbar zu. Nach dem 2025 Identity Fraud Report von Entrust gab es im Jahr 2024 durchschnittlich alle fünf Minuten einen Deepfake-Angriff, und digitale Dokumentenfälschungen nahmen im Vergleich zum Vorjahr um 244 % zu, was die wachsende Bedeutung dieses Betrugstyps unterstreicht.

    Gleichzeitig ist die öffentliche Debatte häufig geprägt von Unsicherheit: Was sind Deepfakes genau und wie kann man sie erkennen? Und warum stellen sie eine so ernsthafte Bedrohung für digitale Ökosysteme dar?

    Dieser Artikel beleuchtet die wichtigsten Aspekte aus Unternehmenssicht – von der technischen Definition über den Einsatz in Betrugsfällen bis hin zur Regulierung und der Gegenmaßnahmen.

     

    Was sind Deepfakes?

    Deepfake_tablet_fingerDer Begriff Deepfake beschreibt Inhalte, die mithilfe künstlicher Intelligenz erzeugt oder manipuliert wurden und authentisch wirken, obwohl sie nicht real sind. Häufig handelt es sich um:

    • KI-generierte Videos, die reale Personen imitieren - auch in Echtzeit in Video-Anrufen
    • Manipulierte oder gefälschte Bilder, etwa von Ausweisdokumenten oder Gesichtern
    • synthetische Stimmen (Voice-Deepfakes) die gezielt zur Täuschung in Telefonaten oder Sprachnachrichten eingesetzt werden
    • KI-generierte Texte oder Nachrichten, die in Kombination mit Bild- oder Tonmaterial genutzt werden, um Vertrauen zu erzeugen und bestimmte Handlungen auszulösen

    Moderne Tools und Apps machen es inzwischen möglich, solche Fälschungen auch ohne tiefgehende technische Kenntnisse zu erzeugen. Der Unterschied zu klassischen Manipulationen liegt in der Kombination aus hoher Qualität, Automatisierung und einfacher Nachahmbarkeit – ein entscheidender Faktor, wenn Unternehmen digitale Dokumente verifizieren oder biometrische Merkmale prüfen müssen. Neben dem offensichtlich Einsatz für Marketing-Zwecke werden KI-Tools leider auch immer häufiger für Identitätsdiebstahl stahl Social Engineering und betrügerische Manipulationen genutzt, bei denen mehrere Deepfake-Elemente – etwa Gesicht, Stimme und Text – gezielt miteinander kombiniert werden.

     

    Wie Deepfakes Identitätsdiebstahl und Betrug ermöglichen

    Deepfake-Betrug ist ein Angriff auf digitale Identitätsprozesse, der auf verschiedenen Ebenen stattfinden kann: visuell, auditiv oder dokumentenbasiert. Unternehmen berichten zunehmend von Versuchen, Deepfakes gezielt als Mittel einzusetzen, um legitime Verifikationen auszuhebeln.

    Typische Angriffsmethoden umfassen:

    • Täuschung automatisierter Onboarding-Prozesse, etwa durch manipulierte Selfies oder Videos, die während Selfie-Ident- oder Auto-Ident-Prüfungen eingesetzt werden
    • Umgehung dokumentenbasierter Prüfungen, bei denen KI-generierte oder manipulierte Ausweisdaten visuelle Sicherheitsmerkmale imitieren
    • Missbrauch sprachbasierter Authentifizierungen, beispielsweise durch synthetische Stimmen in telefonischen oder sprachgesteuerten Prozessen
    • Kombinierte Angriffe, bei denen mehrere manipulierte Elemente – etwa Gesicht, Dokument und personenbezogene Daten – zusammenwirken, um Identitätsprüfungen gezielt zu täuschen

    Für Unternehmen bedeutet das: Deepfakes können erhebliche finanzielle, rechtliche und reputationsbezogene Schäden verursachen, bis hin zu einem Compliance-Verstoß, wenn regulierte Prüfprozesse nicht eingehalten werden.

    Besonders komplex wird Deepfake-Betrug, wenn Angreifer verschiedene Techniken kombinieren – etwa gefälschte Ausweisbilder, manipulierte Selfies und synthetische Videos. In solchen Fällen verschwimmen die Grenzen zu synthetischem Identitätsbetrug, bei dem vollständig künstliche Identitäten entstehen.

     

    Die Regulierung von Deepfakes in EU und Schweiz

    Die regulatorische Auseinandersetzung mit Deepfakes steht zwar noch am Anfang — zugleich wächst der politische Druck. Ziel ist meist nicht ein generelles Verbot der Technologie, sondern Transparenzpflicht und Kennzeichnung manipulierter Inhalte, um Missbrauch zu verhindern.

    In dieser Diskussion wird der geplante EU AI Act häufig als zentrales Instrument genannt. Er soll künftig regeln, wann KI-manipulierte Bild-, Audio- oder Video­inhalte klar als solche gekennzeichnet werden müssen, um Täuschung zu verhindern.

    Für Unternehmen mit Sitz in der Schweiz bleibt abzuwarten, wie nationale Regelungen und internationale Vorgaben kombiniert umgesetzt werden. Klare gesetzliche Anforderungen an Transparenz und Authentizität – gerade bei Online-Identifikation – sind jedoch absehbar.

     

    Deepfakes automatisiert erkennen – der Status Quo

    Die technische Erkennung von Deepfake-Betrügen ist anspruchsvoll. Während Forschungsergebnisse unter Laborbedingungen oft hohe Erkennungsraten zeigen, gestaltet sich die Umsetzung in produktiven Systemen deutlich komplexer. Professionelle KI-Deepfakes von Betrügern lassen sich heute nur mit Technologie erkennen und stoppen.

    Moderne Ansätze kombinieren unterschiedliche Ebenen der Prüfung:

    • biometrische Verfahren, die typische Bewegungs- oder Reflexionsmuster analysieren
    • Liveness Detection, die prüft, ob tatsächlich eine reale Person vor der Kamera steht
    • NFC-basierte Ausweisprüfungen, die auf kryptografisch gesicherte Echtheitsdaten zugreifen
    • dokumentenforensische Methoden, die Bildartefakte, Mikrostrukturen oder Manipulationsmuster identifizieren
    • Hybride Modelle aus Biometrie, Dokumentenanalyse und Anomalieerkennung
    • Device Fingerprinting, das anhand gerätespezifischer Eigenschaften ungewöhnliche Zugriffsmuster identifiziert und so zusätzliche Hinweise auf betrügerische oder KI-gestützte Angriffe liefern kann

    Trotz dieser Fortschritte bleibt die Erkennung anspruchsvoll. Deepfake-Modelle, die gezielt darauf trainiert wurden, bestimmte Kontrollmechanismen zu umgehen, können immer noch durch einzelne Prüfprozesse schlüpfen. Deshalb setzen moderne Sicherheitskonzepte auf mehrschichtige Ansätze, die verschiedene Technologien kombinieren und Auffälligkeiten auf mehreren Ebenen identifizieren.

     

    Handlungsempfehlungen für Unternehmen

    Unternehmen, die KYC- oder digitale Identifikationsprozesse einsetzen, sollten proaktiv handeln und mehrere Schutzebenen kombinieren. Wichtig sind insbesondere:

    • kontinuierliche Beobachtung regulatorischer Entwicklungen
    • Sensibilisierung operativer Mitarbeitender durch Fraud-, Risk- und Compliance-Teams
    • Integration moderner biometrischer Verfahren einschließlich Liveness Detection
    • Einsatz NFC-basierter Verfahren, um Dokumente zuverlässig zu verifizieren
    • Evaluierung neuer Deepfake-Detektor-Technologien und regelmäßige Wirksamkeitstests von Experten
    • Zusammenarbeit mit Forschungseinrichtungen und Technologieanbietern

     

    Wie PXL Vision Deepfakes adressiert

    PXL Vision befasst sich intensiv mit der Absicherung digitaler Identitätsprüfungen gegen Deepfake-basierte Angriffe und entwickelt seine Technologien kontinuierlich weiter. Bereits heute erkennt PXL Ident mithilfe bestehender Mechanismen zahlreiche Manipulationsversuche, etwa wenn Identitätsdokumente nicht physisch vorliegen oder visuell verändert wurden.

    Darüber hinaus hat PXL Vision ein gemeinsames Forschungsprojekt mit dem schweizerischen Idiap Research Institute erfolgreich abgeschlossen. Im Mittelpunkt der Zusammenarbeit stand die Erkennung von synthetischen Gesichtern in realen Identitätsprüfungsszenarien – einem Bereich, der durch den Einsatz generativer KI zunehmend an Bedeutung gewinnt.

    Das Ergebnis des Projekts ist ein Deepfake Detektor, der als neue Schlüsseltechnologie in PXL Ident integriert ist und seit Beginn des Jahres allen Kunden zur Verfügung steht. Die Lösung wurde entwickelt, um unterschiedliche Formen von Gesichtsmanipulationen zu identifizieren, darunter Gesichtstausch, Gesichtsnachstellungen sowie vollständig synthetische Gesichter, die keiner realen Person zugeordnet werden können.

    Technisch basiert der Deepfake Detektor auf fortschrittlichen Deep-Learning-Architekturen und wurde mit einem umfangreichen, diversifizierten Datensatz aus echten und manipulierten Gesichtsbildern trainiert. Er ergänzt bestehende Verfahren zur Betrugsprävention und trägt dazu bei, digitale Identitätsprüfungen robuster, belastbarer und besser auf aktuelle Bedrohungsszenarien auszurichten.

     

    Was Deepfakes für digitale Geschäftsmodelle bedeuten

    Deepfake-Betrug beeinflusst die Sicherheit und Stabilität digitaler Geschäftsmodelle auf mehreren Ebenen. Unternehmen müssen davon ausgehen, dass Angriffe technisch anspruchsvoller und schwerer erkennbar werden.

    Dabei geht es nicht nur um finanziellen Schaden oder operative Mehraufwände, sondern vor allem um die Einhaltung regulatorischer Anforderungen. Unzureichende Prüfmechanismen können schnell zu einem Compliance-Verstoß führen – etwa, wenn gefälschte Identitäten unbemerkt durch KYC-Prozesse gelangen oder elektronische Signaturen ohne ausreichende Echtheitsprüfung akzeptiert werden.

    Robuste Sicherheitsmechanismen, die Biometrie, Liveness Detection, NFC-Validierung, dokumentenbasierte Forensik und gezielte Technologie zur Deepfake Erkennung kombinieren, werden daher zu einem zentralen Bestandteil einer resilienten, zukunftssicheren Prozesslandschaft. Unternehmen sollten vorausschauend in diese Technologien investieren. Das stärkt nicht nur die Sicherheit Ihrer Systeme, sondern auch das Vertrauen Ihrer Kund:innen.

    FAQ – Häufige Fragen zu Deepfakes

    Welche Arten von Deepfakes sind besonders gefährlich für KYC-Prozesse?

    Deepfake-Videos mit manipulierten Gesichtern sowie Voice-Deepfakes sind besonders kritisch, da sie den Eindruck erwecken, eine reale Person sei tatsächlich anwesend. Ebenso gefährlich sind KI-generierte Dokumente (z. B. Ausweise), die normale Dokumentenprüfungen täuschen können.

    Sind Deepfake-Betruge technisch immer erkennbar?

    Nicht zwingend. Viele moderne Deepfakes nutzen fortgeschrittene KI, deren Artefakte für das menschliche Auge kaum sichtbar sind. Einige der besten Detektions-Modelle erkennen Manipulationen zuverlässig, doch ihre Praxistauglichkeit hängt von Qualität, Datenlage und Prüfbedingungen ab. Daher bieten wir mit PXL Check auch eine manuelle Prüfung von unklaren Fällen an. Eine hybride Prüfung ist aktuell häufig noch notwendig.

    Kann man sich vollständig gegen Deepfake-Betrug schützen?

    Ein „vollständiger Schutz“ ist derzeit illusorisch. Aber durch einen Mix aus technologischen Maßnahmen (Anti-Spoofing, Dokumentenprüfung, etc.), organisatorischem Risikomanagement, manueller Einzelfallprüfung und regelmäßiger Sensibilisierung lässt sich das Risiko signifikant reduzieren.

    Wie sollten Unternehmen ihre Identifikationsprozesse anpassen?

    Unternehmen sollten moderne biometrische Verfahren und Dokumentenprüfungen kombinieren, Detektor-Technologien evaluieren, das Fraud- und Compliance-Team sensibilisieren und regulatorische Entwicklungen im Blick behalten.

    Warum lohnt es sich, jetzt in Deepfake-Sicherheit zu investieren?

    Weil Deepfake-Betrug wächst — finanziell, technologisch und regulatorisch. Frühzeitige Investitionen schützen vor Betrug, stärken das Kundenvertrauen und sichern Compliance. Sie wirken wie eine Versicherung für die Zukunft digitaler Identitätsprüfung.