Diesen Artikel teilen

Deepfake-Betrügereien stellen eine Bedrohung für die Menschheit dar – so können Sie sich dagegen wehren

Zero-Knowledge-Beweise fügen der KI-Moderation eine entscheidende Integritätsstufe hinzu und ermöglichen es Unternehmen, Entscheidungen zu überprüfen, ohne sensible Daten oder proprietäre Modelle offenzulegen, sagt Ismael Hishon-Rezaizadeh, CEO & Gründer von Lagrange.

17. Juli 2025, 2:14 p.m. Übersetzt von KI
(Unsplash/Modified by CoinDesk)

Was Sie wissen sollten:

  • Die Polizei in Hongkong hat einen Kryptowährungsbetrug im Wert von 46 Millionen US-Dollar mithilfe fortschrittlicher Deepfake-Technologie zerschlagen.
  • KI-generierte Deepfakes werden nun als erhebliche Bedrohung für die nationale Sicherheit und die Finanzsysteme angesehen.
  • Zero-Knowledge-Machine-Learning bietet eine vielversprechende Lösung für überprüfbare und effiziente Inhaltsmoderation.

Im letzten Jahr, Die Polizei in Hongkong hat eine Gruppe festgenommen, die für einen Kryptowährungsbetrug in Höhe von 46 Millionen Dollar verantwortlich ist und dabei Deepfake-Technologie einsetzte. Die Gruppe arbeitete mit betrügerischen Netzwerken im Ausland zusammen, um überzeugende gefälschte Investitionsplattformen zu erstellen. Heutzutage sind diese Werkzeuge exponentiell weiterentwickelt und umfassen nun AI-generierte Videos, die sich weit schneller entwickeln als andere Medienformen.

Bösartige KI trug bei zu über 12 Milliarden US-Dollar an weltweiten Verlusten vor Betrug im Jahr 2024. Das US-Heimatschutzministerium Anrufe KI-generiert Deepfakes eine „klare, gegenwärtige und sich entwickelnde Bedrohung“ für die nationale Sicherheit, Finanzen und Gesellschaft. Dänemark erwägt, sein Urheberrechtsgesetz zu ändern, um unautorisierte Deepfakes zu bekämpfen, und jedem Menschen „das Recht auf den eigenen Körper, die Gesichtszüge und die Stimme“ zu gewähren.

Die Geschichte geht weiter
Verpassen Sie keine weitere Geschichte.Abonnieren Sie noch heute den CoinDesk Headlines Newsletter. Alle Newsletter ansehen

Deepfakes stellen eindeutig eine zunehmende gesellschaftliche Bedrohung dar. Um die digitale Welt zu schützen, benötigen wir überprüfbare KI und eine Inhaltsmoderation, die durch kryptografische Beweise gestützt wird, nicht nur durch Vertrauen. Zero-Knowledge-Machine-Learning-(zkML)-Techniken eröffnen neue Möglichkeiten, die Gültigkeit von Ergebnissen nachzuweisen, ohne das zugrunde liegende Modell oder die Daten offenzulegen.

Aktuelle Moderation Ist Defizitär

Die zeitgenössische Inhaltsmoderation hat Schwierigkeiten, mit der Manipulation durch KI Schritt zu halten. Wenn ein bösartiger Inhalt auf mehreren Plattformen hochgeladen wird, muss jede Plattform diesen doppelten Inhalt unabhängig neu klassifizieren, was Rechenressourcen verschwendet und die Latenz erhöht.

Schlimmer noch, die Algorithmen und Richtlinien jeder Plattform können unterschiedlich sein, und ein Video, das auf einer Seite als problematisch eingestuft wird, kann auf einer anderen als unbedenklich angesehen werden. Der gesamte Prozess fehlt Transparenz, und die KI-Entscheidungsfindung der Plattformen erfolgt in einer „Black Box“. Nutzer erfahren selten, warum etwas entfernt oder zugelassen wurde.

Dieser fragmentierte Ansatz zur Moderation erschwert es den Erkennungstools, effektiv zu arbeiten. Eine Studie gefunden dass die Genauigkeit der Erkennungsmodelle bei authentischen Realweltdaten „stark abfällt“ und sich bei neuartigen Deepfakes mitunter auf das Niveau eines Zufallsergebnisses verschlechtert.

Unternehmen sind alarmierend schlecht vorbereitet, wobei 42 % der Unternehmen eingeständnis Sie sind nur „bedingt zuversichtlich“ in ihrer Fähigkeit, Deepfakes zu erkennen. Das ständige Nachscannen von Inhalten und das Verfolgen neuer Fälschungen ist ein aussichtsloser Kampf. Wir benötigen eine systemische Lösung, die Moderationsergebnisse portabel, vertrauenswürdig und effizient im gesamten Web macht.

Lösung: Verifizierbare Moderation

Zero-Knowledge Machine Learning (zkML) bietet eine Methode zur Validierung von KI-basierten Moderationsentscheidungen, ohne die Arbeit zu duplizieren oder sensible Informationen offenzulegen. Die Idee besteht darin, dass KI-Klassifikatoren nicht nur ein Label, sondern auch einen kryptografischen Nachweis dieser Klassifikation liefern.

Stellen Sie sich ein Moderationsmodell vor, das ein Stück Inhalt (ein Bild, Video, Text usw.) bewertet und ihm ein oder mehrere Etiketten zuweist (zum Beispiel, Sicher für die Arbeit, Nicht für die Arbeit geeignet, Heftig, Pornografisch, usw.). Zusammen mit den Labels erzeugt das System einen Zero-Knowledge-Nachweis, der bestätigt, dass ein bekanntes KI-Modell den Inhalt verarbeitet und diese Klassifizierungsergebnisse erzeugt hat. Dieser Nachweis wird in den Metadaten des Inhalts eingebettet, wodurch der Inhalt selbst ein manipulationssicheres Moderationsabzeichen tragen kann. Inhaltsproduzenten oder -verteiler könnten ebenfalls kryptografisch an den Moderationsstatus ihres Inhalts gebunden werden.

Wenn Inhalte hochgeladen oder geteilt werden, können Plattformen den Nachweis sofort mithilfe leichter kryptografischer Prüfungen verifizieren. Ist der Nachweis gültig, vertraut die Plattform der bereitgestellten Klassifikation, ohne ihre eigene KI-Analyse erneut durchführen zu müssen.

Vorteile der ZK-Embedded-Moderation

Betrachten wir die Vorteile. Die Verifizierung eines Nachweises ist wesentlich schneller und einfacher als das Ausführen eines großen KI-Modells bei jedem Upload. Erstens haben wir die Portabilität der Inhaltsmoderation, bei der deren Status mit dem Inhalt mitreisen kann. Zudem gewährleisten wir Transparenz durch offen überprüfbare Ergebnisse, die es jedem ermöglichen, den kryptografischen Beweis zu verifizieren und zu bestätigen, wie der Inhalt gekennzeichnet wurde.

In diesem Szenario wird die Moderation zu einer einmaligen Berechnung pro Inhaltselement, wobei nachfolgende Überprüfungen auf kostengünstige Nachweisverifizierungen reduziert werden. All dies führt zu erheblichen Einsparungen bei der Rechenleistung, geringerer Latenz bei der Inhaltsbereitstellung und mehr KI-Ressourcen, die sich auf wirklich neue oder strittige Inhalte konzentrieren können.

Da KI-generierte Inhalte weiterhin explosionsartig zunehmen, kann die zk-gestützte Moderation mit dem Umfang umgehen. Dieser Ansatz entlastet die Plattformen und ermöglicht es der Moderation, mit Echtzeit-Streams hoher Volumina Schritt zu halten.

Die Integritätsschicht für KI

Zero-Knowledge-Proofs liefern die fehlende Integritätsebene, die KI-basierte Moderation benötigt. Sie ermöglichen es uns nachzuweisen, dass KI-Entscheidungen (wie Inhaltsklassifizierungen) korrekt getroffen wurden, ohne sensible Eingaben oder die internen Details des Modells offenzulegen. Dies bedeutet, dass Unternehmen Moderationsrichtlinien durchsetzen und vertrauenswürdige Ergebnisse miteinander oder der Öffentlichkeit teilen können, während sie gleichzeitig den Datenschutz der Nutzer und die proprietäre KI-Logik schützen.

Die Einbettung von Verifizierbarkeit auf Inhaltsebene kann undurchsichtige und redundante Moderationssysteme in ein dezentrales, kryptographisch verifizierbares Vertrauensnetz verwandeln. Anstatt darauf zu vertrauen, dass Plattformen „unsere KI-Filter sind vertrauenswürdig“ sagen, könnten Moderationsergebnisse mit mathematischen Garantien geliefert werden. Wenn wir diese Art skalierbarer Verifizierbarkeit jetzt nicht integrieren, könnten KI-gesteuerte Manipulationen und Fehlinformationen die letzten Überreste des Online-Vertrauens untergraben.

Wir können die KI-Moderation immer noch von einem Akt des Glaubens in einen Akt des Beweises verwandeln – und dabei nicht nur das Vertrauen in Plattformen, sondern auch in die Informationsökosysteme, die den öffentlichen Diskurs, Wahlen und unser gemeinsames Realitätsempfinden prägen, wiederherstellen.

Hinweis: Die in dieser Kolumne geäußerten Ansichten sind die des Autors und spiegeln nicht unbedingt die von CoinDesk, Inc. oder deren Eigentümern und Partnern wider.

Mehr für Sie

Protocol Research: GoPlus Security

GP Basic Image

Was Sie wissen sollten:

  • As of October 2025, GoPlus has generated $4.7M in total revenue across its product lines. The GoPlus App is the primary revenue driver, contributing $2.5M (approx. 53%), followed by the SafeToken Protocol at $1.7M.
  • GoPlus Intelligence's Token Security API averaged 717 million monthly calls year-to-date in 2025 , with a peak of nearly 1 billion calls in February 2025. Total blockchain-level requests, including transaction simulations, averaged an additional 350 million per month.
  • Since its January 2025 launch , the $GPS token has registered over $5B in total spot volume and $10B in derivatives volume in 2025. Monthly spot volume peaked in March 2025 at over $1.1B , while derivatives volume peaked the same month at over $4B.

Mehr für Sie

Die Deepfake-Abrechnung: Warum der nächste Sicherheitskampf der Kryptowährungen gegen synthetische Menschen geführt wird

Robots (Unsplash/Sumaid pal Singh Bakshi/Modified by CoinDesk)

Krypto-Plattformen müssen proaktive, mehrschichtige Verifizierungsarchitekturen einführen, die nicht mit der Registrierung enden, sondern die Identität, Absicht und Transaktionsintegrität während der gesamten Nutzerreise kontinuierlich überprüfen, argumentiert Ilya Brovin, Chief Growth Officer bei Sumsub.