Le truffe con deepfake rappresentano una minaccia per l'umanità — Ecco come reagire
Le zero-knowledge proofs aggiungono un livello cruciale di integrità alla moderazione dell'IA, consentendo alle aziende di verificare le decisioni senza esporre dati sensibili o modelli proprietari, afferma Ismael Hishon-Rezaizadeh, CEO e fondatore di Lagrange.

Cosa sapere:
- La polizia di Hong Kong ha smantellato una truffa di criptovalute del valore di 46 milioni di dollari utilizzando una tecnologia deepfake avanzata.
- I deepfake generati dall'IA sono ora considerati una minaccia significativa per la sicurezza nazionale e i sistemi finanziari.
- L'apprendimento automatico a conoscenza zero offre una soluzione promettente per una moderazione dei contenuti verificabile ed efficiente.
Lo scorso anno, La polizia di Hong Kong ha arrestato un gruppo responsabile di una truffa sugli investimenti in criptovalute del valore di 46 milioni di dollari, che utilizzava la tecnologia deepfake. Il gruppo ha collaborato con reti truffaldine estere per creare piattaforme di investimento false e convincenti. Oggi, questi strumenti sono diventati esponenzialmente più avanzati, estendendosi ora anche ai video generati dall'IA, che si evolvono a un ritmo molto più rapido rispetto a qualsiasi altra forma di media.
L'intelligenza artificiale dannosa ha contribuito a oltre 12 miliardi di dollari di perdite globali dalla frode nel 2024. Il Dipartimento della Sicurezza Interna degli Stati Uniti ora chiamate Generato dall'IA deepfake una “minaccia chiara, attuale e in evoluzione” per la sicurezza nazionale, la finanza e la società. Danimarca sta valutando di modificare la sua legge sul copyright per contrastare i deepfake non autorizzati, riconoscendo a ogni persona “il diritto al proprio corpo, ai tratti del volto e alla voce.”
I deepfake rappresentano chiaramente una minaccia sociale in crescita. Per difendere il mondo digitale, abbiamo bisogno che l'IA sia verificabile e che la moderazione dei contenuti sia supportata da prove crittografiche, non solo dalla fiducia. Le tecniche di apprendimento automatico a conoscenza zero (zkML) stanno aprendo nuove strade per dimostrare la validità degli output, senza esporre il modello sottostante o i dati.
La moderazione attuale è inefficace
La moderazione dei contenuti contemporanea fatica a tenere il passo con la manipolazione da parte dell'IA. Quando un contenuto dannoso viene caricato su più piattaforme, ciascuna piattaforma deve riclassificare indipendentemente quel contenuto duplicato, sprecando risorse computazionali e aumentando la latenza.
Peggio ancora, gli algoritmi e le politiche di ciascuna piattaforma possono differire, e un video segnalato su un sito potrebbe essere considerato innocuo su un altro. L'intero processo manca di trasparenza e il processo decisionale dell'IA delle piattaforme esiste in una “scatola nera”. Gli utenti raramente sanno perché qualcosa è stato rimosso o consentito.
Questo approccio frammentato alla moderazione rende più difficile per gli strumenti di rilevamento operare efficacemente. Uno studio trovato che l’accuratezza dei modelli di rilevamento “crolla drasticamente” sui dati autentici e non filtrati, talvolta degradando a una semplice supposizione casuale quando si trovano di fronte a deepfake nuovi.
Le aziende sono allarmantemente impreparate, con il 42% delle imprese ammettendo sono solo “moderatamente fiduciosi” nella loro capacità di individuare i deepfake. Riesaminare costantemente i contenuti e inseguire nuove contraffazioni è una battaglia persa. Abbiamo bisogno di una soluzione sistemica che renda i risultati della moderazione portabili, affidabili ed efficienti su tutto il web.
Soluzione: Moderazione Verificabile
Il Machine Learning a conoscenza zero (zkML) offre un metodo per convalidare le decisioni di moderazione basate sull'IA senza duplicare il lavoro o divulgare informazioni sensibili. L'idea è che i classificatori IA producano non solo un'etichetta, ma anche una prova crittografica di tale classificazione.
Immaginate un modello di moderazione che valuta un contenuto (un'immagine, un video, un testo, ecc.) e gli assegna una o più etichette (ad esempio, Sicuro per il lavoro, Non Adatto per l'Ambiente di Lavoro, Violento, Pornografico, ecc.). Insieme alle etichette, il sistema genera una prova a conoscenza zero che attesta che un modello di IA noto ha elaborato il contenuto e prodotto tali risultati di classificazione. Questa prova è incorporata nei metadati del contenuto, consentendo al contenuto stesso di portare un distintivo di moderazione a prova di manomissione. I produttori o distributori di contenuti potrebbero inoltre essere vincolati crittograficamente allo stato di moderazione dei loro contenuti.
Quando il contenuto viene caricato o condiviso, le piattaforme possono verificare istantaneamente la prova utilizzando controlli crittografici leggeri. Se la prova è valida, la piattaforma si fida della classificazione fornita senza bisogno di eseguire nuovamente la propria analisi AI.
Vantaggi della Moderazione Integrata ZK
Riflettiamo sui benefici in questo contesto. Verificare una prova è molto più veloce e semplice che eseguire un modello AI di grandi dimensioni ad ogni caricamento. In primo luogo, abbiamo la portabilità della moderazione dei contenuti, per cui il suo stato può viaggiare con esso. Garantiamo inoltre trasparenza attraverso risultati apertamente verificabili, permettendo a chiunque di verificare la prova crittografica e confermare come il contenuto è stato etichettato.
In questo scenario, la moderazione diventa un'elaborazione unica per ogni contenuto, con controlli successivi ridotti a verifiche di prova a basso costo. Tutto ciò si traduce in enormi risparmi computazionali, minore latenza nella consegna dei contenuti e maggiori risorse AI da dedicare a contenuti realmente nuovi o contestati.
Man mano che i contenuti generati dall'IA continuano a esplodere, la moderazione abilitata da zk può gestire la scala. Questo approccio alleggerisce il carico sulle piattaforme, consentendo alla moderazione di tenere il passo con flussi ad alto volume in tempo reale.
Lo strato di integrità per l'IA
Le prove a conoscenza zero forniscono il livello di integrità mancante di cui la moderazione basata su AI ha bisogno. Ci permettono di dimostrare che le decisioni dell'AI (come le classificazioni dei contenuti) sono state prese correttamente, senza rivelare input sensibili o gli internals del modello. Ciò significa che le aziende possono applicare politiche di moderazione e condividere risultati affidabili tra loro o con il pubblico, proteggendo al contempo la privacy degli utenti e la logica proprietaria dell'AI.
L'incorporazione della verificabilità a livello di contenuto può trasformare sistemi di moderazione opachi e ridondanti in una rete decentralizzata e crittograficamente verificabile di fiducia. Invece di affidarsi alle piattaforme che dicono “fidati dei nostri filtri AI,” i risultati della moderazione potrebbero essere accompagnati da garanzie matematiche. Se non integriamo ora questo tipo di verificabilità scalabile, la manipolazione e la disinformazione guidate dall'IA potrebbero erodere gli ultimi brandelli di fiducia online.
Possiamo ancora trasformare la moderazione dell'IA da un atto di fede a un atto basato su prove — e facendo ciò, ricostruire la fiducia non solo nelle piattaforme, ma negli ecosistemi informativi che modellano il discorso pubblico, le elezioni e il nostro senso condiviso della realtà.
Nota: Le opinioni espresse in questa rubrica sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.
Di più per voi
Protocol Research: GoPlus Security

Cosa sapere:
- As of October 2025, GoPlus has generated $4.7M in total revenue across its product lines. The GoPlus App is the primary revenue driver, contributing $2.5M (approx. 53%), followed by the SafeToken Protocol at $1.7M.
- GoPlus Intelligence's Token Security API averaged 717 million monthly calls year-to-date in 2025 , with a peak of nearly 1 billion calls in February 2025. Total blockchain-level requests, including transaction simulations, averaged an additional 350 million per month.
- Since its January 2025 launch , the $GPS token has registered over $5B in total spot volume and $10B in derivatives volume in 2025. Monthly spot volume peaked in March 2025 at over $1.1B , while derivatives volume peaked the same month at over $4B.
More For You
La Strategia di Sicurezza Nazionale di Trump Ignora Bitcoin e Blockchain

La più recente strategia di sicurezza nazionale del presidente degli Stati Uniti si è concentrata su IA, biotecnologie e calcolo quantistico.
What to know:
- L’ultima strategia di sicurezza nazionale del Presidente degli Stati Uniti Donald Trump omette le risorse digitali, concentrandosi invece su IA, biotecnologie e calcolo quantistico.
- La riserva strategica di Bitcoin dell'amministrazione è stata creata utilizzando BTC sequestrati, non nuovi acquisti.










