Wenn ich selbst nicht beweisen kann, dass ich kein KI bin, empfehlen Forensik-Experten: Vereinbaren Sie mit Familie und Freunden ein geheim Codewort.

BBC Reporter Thomas Germain hat ein erschütterndes Experiment veröffentlicht: Er rief seine lebenslange Bekannte, Tante Eleanor, an und informierte sie im Voraus, dass der nächste Anruf entweder von einem echten Menschen oder von einer AI-Deepfake-Imitation kommen könnte.

Das Ergebnis: Tante Eleanor konnte es nicht sicher feststellen. Germain fasst zusammen: Wenn selbst Familienmitglieder nicht mehr unterscheiden können, ist das Problem längst nicht mehr nur eine technische Herausforderung.

Er fragte Hany Farid, Professor für digitale Forensik an der University of California, Berkeley, Mitgründer von GetReal Security: „Was kann ich jetzt tun, um zu beweisen, dass ich kein AI bin?“ Farids einzige Antwort war: Nein.

Du bist in New York, ich bin in Berkeley, Kalifornien, wir sprechen per Video. In Wirklichkeit kannst du alles vortäuschen.

Dann sagte Farid eine Aussage, die einem den Rücken kalt werden lässt: „Es geht nicht mehr. Es ist vorbei.“

Netanyahu muss die Hände hochheben und seine Finger zählen

Germain zitiert auch einen kürzlich äußerst absurden Fall. Als Israels Premierminister Netanyahu ein Video veröffentlichte, brach das Licht so, dass seine rechte Hand wie ein sechster Finger aussah – ein klassischer Fehler bei der Erkennung von AI-Deepfakes.

Die Community explodierte: Gerüchte verbreiteten sich, er sei bei einem Raketenangriff ums Leben gekommen, das Video sei gefälscht.

Um seine Unschuld zu beweisen, veröffentlichte Netanyahu nacheinander eine zweite und eine dritte Aufnahme, hob in einem Café die Hände und zeigte die Finger einzeln, um die richtige Anzahl zu demonstrieren. Germain weist darauf hin, dass Farid diese Videos anschließend einer Sprach- und Bildanalyse unterzog: Alle seien echt, kein Beweis für eine AI-Generierung.

Jeremy Carrasco, Mitgründer von Riddance, sagte gegenüber der BBC: „Sechs Finger sind kein AI-Merkmal mehr, die besten Tools haben dieses Problem vor Jahren behoben.“

Doch Germain stellt eine bittere Erkenntnis fest: Trotz Expertenzertifizierung glauben immer noch viele Menschen, Netanyahu sei tot. Er schreibt, dass dies vielleicht das erste Mal in der Menschheitsgeschichte ist, dass Weltführer öffentlich beweisen müssen, dass sie keine AI sind – und dabei scheitern.

Lügner-Vorteil: Zweifel kostenlos erzeugen

Germain führt das Konzept des „Lügner-Vorteils“ an: Es ist teuer, die Wahrheit zu beweisen, aber Zweifel zu säen ist kostenlos. Politiker können leicht behaupten, ein echtes Video sei Deepfake, und die Zeit, Ressourcen und Glaubwürdigkeit, die nötig sind, um diese Behauptung zu widerlegen, übersteigen oft die Kosten für die Verbreitung des Gerüchts.

Samuel Woolley, Vorsitzender für Fake-News-Forschung an der University of Pittsburgh, skizziert eine alarmierende Entwicklung: „Anfang des Ukraine-Kriegs sah ich einige unbeholfene Deepfakes. Während der Gaza-Krise gab es mehr und bessere Fälschungen. In Venezuela? Mehr Fälschungen als echte Inhalte. Und im Iran haben sie das auf ein neues Level gehoben.“

Woolley nennt direkt die Politiker, die für eine Regulierung eintreten: „Sie kosten jetzt die Früchte, die sie selbst gepflanzt haben.“

Was die Lösung betrifft, kommt Germain zu einer überraschenden Schlussfolgerung: Der einfachste Weg ist ein geheimer Code.

Farid erklärt gegenüber der BBC, dass er und seine Frau eine spezielle Geheimnummer haben, um sich bei verdächtigen Anrufen gegenseitig zu verifizieren. Das ist im Wesentlichen eine zwischenmenschliche Mehrfaktor-Authentifizierung: Wenn alle technischen Mittel versagen, kehren wir zu einem alten Vertrauensprinzip zurück.

AI-Betrug nimmt um das 20-fache zu, die Krypto-Welt ist am stärksten betroffen

Obwohl Germain den gesellschaftlichen Vertrauensverlust betont, zeigt eine Studie der AARP (American Association of Retired Persons) eine direktere finanzielle Gefahr: Zwischen 2023 und 2025 ist die Zahl der AI-bezogenen Betrugsfälle um das 20-fache gestiegen. Das britische Ingenieurunternehmen Arup verlor bei einem Deepfake-Video, in dem der Finanzchef simuliert wurde, 25 Millionen US-Dollar.

Der Kryptomarkt ist noch viel stärker betroffen. Laut Fintech Global erreichte der Betrag an Krypto-Betrug im ersten Quartal 2026 bereits 200 Millionen US-Dollar, ein Anstieg um 340 % im Jahresvergleich; Deepfake-Betrug soll 70 % der Krypto-Kriminalität ausmachen.

Ein weiteres Problem ist ein Tool namens ProKYC: Für nur 629 US-Dollar Jahresgebühr bietet es virtuelle Simulatoren, Gesichtsanimationen und Fingerabdruck-Generierung, um komplett neue Identitäten zu erstellen und KYC-Überprüfungen bei Krypto-Börsen zu umgehen. Das US-Finanzministerium fordert bereits eine stärkere Regulierung der KI- und digitalen Identitätssysteme.

Noch beunruhigender ist die Entwicklung, dass KI-Agenten inzwischen eigenständig Wallets verwalten und Transaktionen initiieren können. In diesem Szenario stellt sich die Frage: Ist der „Kunde“ noch ein Mensch oder bereits eine KI? Die KYC-Regelungen könnten in diesem Fall ins Leere laufen.

Ironischerweise haben wir ein System zur Erkennung von AI entwickelt, doch diese entwickelt sich weiter und kann die Überprüfung umgehen. Am Ende bleibt nur noch eine altmodische Methode: ein geheimer Code zwischen dir und deinen Freunden.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare