Gli agenti AI hanno bisogno di identità e le Zero-Knowledge Proof sono la soluzione
Le ZKP potrebbero diventare la spina dorsale di una nuova era di intelligenza artificiale e identità digitale affidabili, offrendo a individui e organizzazioni un modo per interagire in modo sicuro e trasparente attraverso piattaforme e confini, sostiene Evin McMullen, CEO e co-fondatore di Billions Network.

Questi sono tempi interessanti per l'IA e la fiducia. Un numero crescente di società di investimento sta utilizzando agenti di IA per esaminare note di ricerca e documenti aziendali. Gli esseri umani sono chiamati a fornire dati biometrici sempre più invasivi, come scansioni facciali, campioni vocali e modelli comportamentali, solo per dimostrare di non essere bot. Una volta diffusi, questi dati possono essere strumentalizzati da bot guidati dall'IA per imitare in modo convincente persone reali, sconfiggendo i sistemi stessi progettati per escluderli. Ciò ci pone di fronte a una nuova e strana corsa agli armamenti – più invasiva è la verifica, maggiore è il rischio quando inevitabilmente si verifica una fuga di dati. Quindi, come possiamo verificare chi (o cosa) stiamo realmente affrontando?
È inconcepibile richiedere trasparenza agli esseri umani accettando al contempo l’opacità dalle macchine. Sia i bot che gli utenti umani online necessitano di metodi migliorati per verificare la propria identità. Non possiamo risolvere questo problema semplicemente raccogliendo più dati biometrici, né costruendo registri centralizzati che rappresentano enormi trappole per i criminali informatici. Le prove a conoscenza zero offrono una soluzione in cui sia gli esseri umani sia l’IA possono dimostrare le proprie credenziali senza esporsi a sfruttamenti.
Il Deficit di Fiducia che Blocca il Progresso
L'assenza di un'identità AI verificabile crea rischi immediati per il mercato. Quando gli agenti AI possono impersonare esseri umani, manipolare i mercati o eseguire transazioni non autorizzate, le imprese esitano giustamente a implementare sistemi autonomi su larga scala. Come spesso accade, i LLM che sono stati "migliorati" su un dataset più piccolo per aumentare le prestazioni sono 22 volte più probabile è più propenso a produrre output dannosi rispetto ai modelli base, con i tassi di successo nell'eludere le protezioni di sicurezza ed etiche del sistema — un processo noto come “jailbreaking” — che triplicano rispetto ai sistemi pronti per la produzione. Senza una verifica dell'identità affidabile, ogni interazione con l'IA si avvicina a un potenziale rischio di violazione della sicurezza.
Il problema non è così evidente come prevenire che attori malevoli dispieghino agenti rogue, poiché non ci troviamo davanti a un singolo interface AI. Il futuro vedrà sempre più agenti AI autonomi con capacità maggiori. In un tale mare di agenti, come possiamo sapere con cosa abbiamo a che fare? Anche i sistemi AI legittimi necessitano di credenziali verificabili per partecipare alla nascente economia agente-agente. Quando un bot di trading AI esegue una transazione con un altro bot, entrambe le parti devono avere garanzie sull'identità, l'autorizzazione e la struttura di responsabilità dell'altro.
Il lato umano di questa equazione è altrettanto compromesso. I tradizionali sistemi di verifica dell'identità espongono gli utenti a gravi violazioni dei dati, consentono troppo facilmente la sorveglianza autoritaria e generano miliardi di ricavi per grandi corporation dalla vendita di informazioni personali senza compensare gli individui che le producono. Le persone sono giustamente riluttanti a condividere ulteriori dati personali, eppure i requisiti normativi impongono procedure di verifica sempre più invasive.
Zero-Knowledge: Il Ponte tra Privacy e Responsabilità
Le proof zero-knowledge (ZKP) offrono una soluzione a questo problema apparentemente irrisolvibile. Piuttosto che rivelare informazioni sensibili, le ZKP permettono alle entità, siano esse umane o artificiali, di dimostrare affermazioni specifiche senza esporre i dati sottostanti. Un utente può dimostrare di avere più di 21 anni senza rivelare la propria data di nascita. Un agente AI può dimostrare di essere stato addestrato su dataset etici senza esporre algoritmi proprietari. Un’istituzione finanziaria può verificare che un cliente soddisfi i requisiti normativi senza memorizzare informazioni personali che potrebbero essere compromesse.
Per gli agenti AI, le ZKP possono abilitare i necessari profondi livelli di fiducia, poiché è necessario verificare non solo l'architettura tecnica, ma anche i modelli comportamentali, la responsabilità legale e la reputazione sociale. Con le ZKP, queste affermazioni possono essere archiviate in un grafo di fiducia verificabile on-chain.
Pensatelo come uno strato di identità componibile che funziona attraverso piattaforme e giurisdizioni. In questo modo, quando un agente AI presenta le proprie credenziali, può dimostrare che i dati di addestramento rispettano gli standard etici, che i suoi output sono stati sottoposti ad audit e che le sue azioni sono collegate a entità umane responsabili, il tutto senza esporre informazioni proprietarie.
Le ZKP potrebbero rivoluzionare completamente il settore, permettendoci di dimostrare la nostra identità senza cedere dati sensibili, ma l’adozione resta lenta. Le ZKP rimangono una nicchia tecnica, poco conosciuta dagli utenti e intrappolata in aree grigie regolamentari. Per di più, le aziende che traggono profitto dalla raccolta dati hanno pochi incentivi ad adottare questa tecnologia. Tuttavia, ciò non ferma le compagnie di identità più agili dal loro utilizzo e, con l’emergere di standard regolamentari e una maggiore consapevolezza, le ZKP potrebbero diventare la spina dorsale di una nuova era di AI e identità digitale affidabili – offrendo a individui e organizzazioni un modo per interagire in modo sicuro e trasparente tra piattaforme e confini.
Implicazioni di Mercato: Sbloccare l'Economia degli Agenti
L'intelligenza artificiale generativa potrebbe aggiungere trilioni annuali all'economia globale, ma gran parte di questo valore rimane bloccato dietro barriere di verifica dell'identità. Ci sono diverse ragioni per questo. Una è che gli investitori istituzionali necessitano di una solida conformità KYC/AML prima di allocare capitali in strategie guidate dall'IA. Un'altra è che le imprese richiedono identità agenti verificabili prima di consentire ai sistemi autonomi di accedere a infrastrutture critiche. E i regolatori esigono meccanismi di responsabilità prima di approvare il dispiegamento dell'IA in domini sensibili.
I sistemi di identità basati su ZKP rispondono a tutti questi requisiti preservando la privacy e l'autonomia che rendono preziosi i sistemi decentralizzati. Consentendo la divulgazione selettiva, soddisfano le normative senza creare depositi di dati personali vulnerabili. Fornendo una verifica crittografica, abilitano interazioni senza fiducia tra agenti autonomi. E mantenendo il controllo dell'utente, si allineano alle normative emergenti sulla protezione dei dati come il GDPR e le leggi sulla privacy della California.
La tecnologia potrebbe inoltre contribuire ad affrontare la crescente crisi dei deepfake. Quando ogni contenuto può essere collegato crittograficamente a un creatore verificato senza rivelarne l'identità, è possibile combattere la disinformazione e proteggere la privacy. Ciò è particolarmente cruciale poiché i contenuti generati dall’IA diventano indistinguibili dal materiale creato dall’uomo.
Il Percorso ZK
Alcuni sosterranno che qualsiasi sistema di identità rappresenti un passo verso l'autoritarismo – ma nessuna società può funzionare senza un modo per identificare i propri cittadini. La verifica dell'identità è già in atto su larga scala, solo che in modo inefficace. Ogni volta che carichiamo documenti per il KYC, ci sottoponiamo al riconoscimento facciale o condividiamo dati personali per la verifica dell'età, partecipiamo a sistemi di identità invasivi, insicuri e inefficienti.
Le prove a conoscenza zero offrono una via da seguire che rispetta la privacy individuale pur consentendo la fiducia necessaria per interazioni economiche complesse. Esse ci permettono di costruire sistemi in cui gli utenti controllano i propri dati, la verifica non richiede sorveglianza, e sia gli esseri umani sia gli agenti AI possono interagire in modo sicuro senza sacrificare l'autonomia.
Nota: Le opinioni espresse in questa rubrica sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.
More For You
Protocol Research: GoPlus Security

What to know:
- As of October 2025, GoPlus has generated $4.7M in total revenue across its product lines. The GoPlus App is the primary revenue driver, contributing $2.5M (approx. 53%), followed by the SafeToken Protocol at $1.7M.
- GoPlus Intelligence's Token Security API averaged 717 million monthly calls year-to-date in 2025 , with a peak of nearly 1 billion calls in February 2025. Total blockchain-level requests, including transaction simulations, averaged an additional 350 million per month.
- Since its January 2025 launch , the $GPS token has registered over $5B in total spot volume and $10B in derivatives volume in 2025. Monthly spot volume peaked in March 2025 at over $1.1B , while derivatives volume peaked the same month at over $4B.
More For You
Il Dollaro Sta Crollando. Le Stablecoin Supportate da Fiat Sono le Prossime

Una possibile soluzione è un nuovo tipo di stablecoin il cui valore è ancorato a un deposito fisico reale di oro, sostiene Stephen Wundke di Algoz.










