Condividi questo articolo

Dare un senso al fiorente ecosistema di intelligenza artificiale di Web3

Sebbene l'intersezione tra Web3 e AI abbia un grande potenziale, c'è molta confusione su questa Tecnologie emergente nel mercato odierno. Mappare la supply chain GPU, i livelli dello stack tecnologico e i vari scenari competitivi può aiutare gli investitori a comprendere meglio l'ecosistema e a prendere decisioni di investimento più consapevoli, afferma David Attermann, presso M31 Capital.

Aggiornato 8 mar 2024, 7:38 p.m. Pubblicato 10 gen 2024, 4:45 p.m. Tradotto da IA
(Markus Winkler/Unsplash)
(Markus Winkler/Unsplash)

In poco più di un anno dal debutto di ChatGPT, l'intelligenza artificiale generativa è probabilmente diventata la narrazione globale più influente oggi. Il successo iniziale di OpenAI ha spinto un'impennata di interesse degli investitori per i modelli linguistici di grandi dimensioni (LLM) e le applicazioni di intelligenza artificiale, attirando 25 miliardi di dollari di finanziamenti nel 2023 ((in aumento di 5 volte rispetto all'anno precedente!), alla ricerca di un'opportunità di mercato potenzialmente multimiliardaria.

Stai leggendo Cripto lunghe e corte, la nostra newsletter settimanale con approfondimenti, notizie e analisi per gli investitori professionali.Iscriviti quiper riceverlo nella tua casella di posta ogni mercoledì.

La storia continua sotto
Non perderti un'altra storia.Iscriviti alla Newsletter The Protocol oggi. Vedi tutte le newsletter
Grafico

Come hoscritto in precedenza, le tecnologie AI e Cripto si completano bene a vicenda, quindi non sorprende vedere un crescente ecosistema AI emergere all'interno di Web3. Nonostante tutta l'attenzione, ho notato molta confusione su cosa fanno questi protocolli, cosa è hype vs. reale e come si adattano tutti insieme. Questo report delineerà la supply chain di Web3 AI, definirà ogni livello nello stack tecnologico ed esplorerà i vari scenari competitivi. Alla fine dovresti avere una comprensione di base di come funziona l'ecosistema e cosa cercare in seguito.

Stack tecnologico AI di Web3

Grafico
Descrizione

Livello infrastrutturale

Aggregatore GPU

L'intelligenza artificiale generativa è alimentata da LLM, che funzionano su GPU ad alte prestazioni. Gli LLM hanno tre carichi di lavoro principali: formazione (creazione del modello), messa a punto (specializzazione di settore/argomento) e inferenza (esecuzione del modello). Ho segmentato questo livello in GPU per uso generale, GPU specifiche per ML e aggregatori GPU, che sono caratterizzati dalle loro diverse capacità di carico di lavoro e casi d'uso. Questi marketplace P2P sono incentivati dalle criptovalute per garantire una decentralizzazione sicura, ma è importante notare che l'elaborazione GPU effettiva avviene off-chain.

  • GPU per uso generale:Mercati (decentralizzati) incentivati dalle criptovalute per la potenza di elaborazione GPU che può essere utilizzata per qualsiasi tipo di applicazione. Data la sua natura generica, la risorsa di elaborazione è più adatta solo per l'inferenza del modello (il carico di lavoro LLM più utilizzato). I primi leader di categoria includono Akash e Render, ma, con l'emergere di molti nuovi entranti, non è chiaro come si svolgerà la differenziazione del protocollo. Sebbene l'elaborazione sia tecnicamente una commodity, la domanda di Web3 per l'elaborazione senza autorizzazione e specifica per GPU dovrebbe continuare a crescere in modo esponenziale nel prossimo decennio e oltre, man mano che integriamo di più l'IA nella nostra vita quotidiana. I principali differenziatori a lungo termine saranno la distribuzione e gli effetti di rete.
  • GPU specifica per ML:Questi marketplace sono più specifici per le applicazioni di machine learning (ML) e possono quindi essere utilizzati per l'addestramento di modelli, la messa a punto e l'inferenza. A differenza dei marketplace generici, questi protocolli possono differenziarsi meglio attraverso la sovrapposizione di software specifici per ML, ma anche la distribuzione e gli effetti di rete saranno fondamentali. Bittensor ha un vantaggio iniziale, ma molti progetti saranno lanciati presto.
  • Aggregatori GPU:Questi marketplace aggregano la fornitura di GPU dalle due categorie precedenti, astraggono l'orchestrazione di rete e la sovrapposizione con software specifico per ML. Sono come i VAR (rivenditori a valore aggiunto) Web2 e possono essere considerati distributori di prodotti. Questi protocolli offrono soluzioni GPU più complete in grado di eseguire training di modelli, messa a punto e inferenza.Io.netè il primo protocollo ad emergere nella categoria, ma mi aspetto che emergano altri concorrenti data la necessità di una distribuzione GPU più consolidata.
GPU per uso generale

Livello di middleware

Inferenza a conoscenza zero

Il livello precedente consente l'accesso senza autorizzazione alle GPU, ma è necessario un middleware per connettere questa risorsa di elaborazione a smart contract on-chain in modo da minimizzare la fiducia (ad esempio, per l'uso da parte di applicazioni Web3). Entrano le zero-knowledge proof (ZKP), un metodo crittografico tramite il quale ONE parte (dimostratore) può dimostrare a un'altra parte (verificatore) che una determinata affermazione è vera, evitando al contempo di trasmettere al verificatore qualsiasi informazione che vada oltre il fatto della verità dell'affermazione. Nel nostro caso, l'"affermazione" è l'output LLM dato un input specifico.

  • Verifica dell'inferenza a conoscenza zero (ZK):Mercati decentralizzati per i verificatori ZKP per fare offerte sull'opportunità di verificare (a pagamento) che gli output di inferenza siano prodotti accuratamente dall'LLM desiderato (mantenendo privati ​​i dati e i parametri del modello). Sebbene la Tecnologie ZK abbia fatto molta strada, ZK per l'apprendimento automatico (zkML) è ancora agli inizi e deve diventare più economico e veloce per essere pratico. Quando lo farà, ha il potenziale per aprire drasticamente lo spazio di progettazione Web3 e AI, consentendo ai contratti intelligenti di accedere agli LLM in modo decentralizzato. Sebbene sia ancora agli inizi, =nil;, Giza e RISC Zero guidano l'attività degli sviluppatori su GitHub. Protocolli come Blockless sono ben posizionati indipendentemente dal fornitore ZKP che WIN poiché agiscono come livelli di aggregazione e astrazione (distribuzione ZKP).
  • Strumenti per sviluppatori e hub applicativi:Oltre agli ZKP, gli sviluppatori Web3 necessitano di strumenti, kit di sviluppo software (SDK) e servizi per creare in modo efficiente applicazioni come gli agenti AI(entità software che eseguono operazioni per conto di un utente o di un altro programma con un certo grado di autonomia, utilizzando la rappresentazione degli obiettivi dell'utente)e strategie di trading automatizzate basate sull'intelligenza artificiale. Molti di questi protocolli fungono anche da hub applicativi, dove gli utenti possono accedere direttamente alle applicazioni finite che sono state create sulle loro piattaforme (distribuzione delle applicazioni). I primi leader includono Bittensor, che attualmente ospita 32 diverse "subnet" (applicazioni AI) eFetch.ai, che offre una piattaforma completa per lo sviluppo di agenti di intelligenza artificiale di livello aziendale.
Inferenza ZK

Livello applicativo

Applicazioni AI

E infine, in cima alla pila tecnologica, abbiamo applicazioni di interfaccia utente che sfruttano la potenza di elaborazione AI senza autorizzazione di Web3 (abilitata dai due livelli precedenti) per completare attività specifiche per una varietà di casi d'uso. Questa parte del mercato è ancora nascente e si basa ancora su infrastrutture centralizzate, ma i primi esempi includono auditing di contratti intelligenti, chatbot specifici per blockchain, giochi metaverse, generazione di immagini e piattaforme di trading e gestione del rischio. Man mano che l'infrastruttura sottostante continua ad avanzare e gli ZKP maturano, emergeranno applicazioni AI di nuova generazione con funzionalità difficili da immaginare oggi. Non è chiaro se i primi entranti saranno in grado di KEEP il passo o se nuovi leader emergeranno nel 2024 e oltre.

Applicazioni

Prospettive degli investitori:Sebbene io sia ottimista sull'intero stack tecnologico dell'IA, credo che i protocolli infrastrutturali e middleware siano investimenti migliori oggi, data l'incertezza su come la funzionalità dell'IA evolverà nel tempo. In qualunque modo si evolva, le applicazioni Web3 AI richiederanno senza dubbio un'enorme potenza GPU, Tecnologie ZKP e strumenti e servizi per sviluppatori (ad esempio infrastruttura e middleware).

Dichiarazione informativa:M31 Capital detiene posizioni in diversi token menzionati in questo articolo.

Nota: Le opinioni espresse in questa rubrica sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.

More For You

Protocol Research: GoPlus Security

GP Basic Image

What to know:

  • As of October 2025, GoPlus has generated $4.7M in total revenue across its product lines. The GoPlus App is the primary revenue driver, contributing $2.5M (approx. 53%), followed by the SafeToken Protocol at $1.7M.
  • GoPlus Intelligence's Token Security API averaged 717 million monthly calls year-to-date in 2025 , with a peak of nearly 1 billion calls in February 2025. Total blockchain-level requests, including transaction simulations, averaged an additional 350 million per month.
  • Since its January 2025 launch , the $GPS token has registered over $5B in total spot volume and $10B in derivatives volume in 2025. Monthly spot volume peaked in March 2025 at over $1.1B , while derivatives volume peaked the same month at over $4B.

More For You

ZKsync Lite to Shut Down in 2026 as Matter Labs Moves On

Sunset in San Salvador. Credit: Ricky Mejia, Unsplash

The company framed the move, happening in early 2026, as a planned sunset.

What to know:

  • Matter Labs plans to deprecate ZKsync Lite, the first iteration of its Ethereum layer-2 network, the team said in a post on X over the weekend.
  • The company framed the move, happening in early 2026, as a planned sunset for an early proof-of-concept that helped validate their zero-knowledge rollup design choices before newer systems went live.