Share this article

La proposta di 'Pausa' dell'IA è ingannevole e pericolosamente allarmante

È sbagliato che una manciata di miliardari decida cosa è bene e sicuro per il mondo, anche se si tratta di leader dell'intelligenza artificiale ben intenzionati, afferma il tecnologo e investitore in Cripto Peter Vessenes.

Updated Jun 14, 2024, 3:21 p.m. Published Apr 12, 2023, 12:45 p.m.
jwp-player-placeholder

Il mese scorso, diversi giganti della tecnologiaha firmato una letterachiedendo una pausa di sei mesi nell'addestramento di modelli di intelligenza artificiale (IA) più potenti di GPT-4.

Questa lettera è pericolosa e dovrebbe provocare cittadini riflessivi. In essa, i firmatari sostengono che una pausa consentirà all'umanità di avere più tempo per comprendere e rispondere ai potenziali rischi dell'IA. La lettera stessa serve a Rally il sostegno pubblico per OpenAI e i suoi alleati mentre consolidano il loro predominio, costruiscono un'estesa leadership nell'innovazione e assicurano il loro vantaggio su una Tecnologie di fondamentale importanza per il futuro. Se ciò dovesse accadere, danneggerebbe irreparabilmente gli americani, la nostra economia e la nostra gente.

La storia continua sotto
Don't miss another story.Subscribe to the CoinDesk Headlines Newsletter today. See all newsletters

Peter Vessenes è un tecnologo e investitore con profonde radici nella valuta digitale, tokenizzazione e blockchain. Uno dei primi ad adottare Bitcoin, ha co-fondato la Bitcoin Foundation nel 2012 ed è stato il primo esponente del settore Cripto a consigliare il GAO del Senato degli Stati Uniti, il Dipartimento del Tesoro degli Stati Uniti e altre agenzie su Bitcoin.

GPT-4 e modelli di fondazione simili promettono di aumentare la capacità Human di 1.000 volte, guidando il cambiamento sociale in molti ambiti della vita. L'industria così come è strutturata attualmente è destinata a consolidare una cabala che decide chi trae vantaggio da questa Tecnologie.

Immaginate se, nel 1997, Microsoft e Dell avessero pubblicato una lettera simile, "Pause", sollecitando un arresto dell'innovazione del browser e un divieto di nuovi siti di e-commerce per sei mesi, citando la loro stessa ricerca secondo cui Internet avrebbe distrutto i negozi fisici e aiutato il Finanza del terrorismo. Oggi riconosceremmo questo come un allarmismo egoistico e un tentativo di cattura normativa.

La lettera "Pause" non è diversa. Alcuni leader schietti e affascinanti stanno prendendo il potere con la scusa di proteggerci dai pericoli dell'IA. Si sono posizionati come gli unici arbitri di quale tecnologia il mondo può vedere e usare, e decisori di cosa rende un'IA "accurata, sicura, interpretabile, trasparente, robusta, allineata, affidabile e leale".

È sbagliato che una manciata di miliardari decida cosa è buono e sicuro per il mondo. Persino i leader dell'IA ben intenzionati non dovrebbero avere un tale potere. Il potere assoluto corrompe in modo assoluto.

Il mondo è in una corsa verso modelli di fondazione di prossima generazione. Nessuna gara fermerà o rallenterà la ricerca e lo sviluppo. I laboratori di intelligenza artificiale indipendenti e i rivali stranieri, desiderosi di integrare l'intelligenza artificiale avanzata nei loro sistemi, T si fermeranno; continueranno senza sosta.

jwp-player-placeholder

Come possiamo garantire che tutti gli esseri umani traggano vantaggio dal miglioramento 1.000 volte offerto dall'intelligenza artificiale? L'unico modo è attraverso uno sviluppo libero e aperto, che includa capacità di condivisione, metodologie e checkpoint di rete. Ad esempio, per anni, EleutherAI ha aperto la strada, resistendo agli avvertimenti di truffa secondo cui GPT-2 e GPT-3 erano "troppo pericolosi" per il pubblico, pubblicando senza paura ricerche e modelli. Abbiamo bisogno di una scala da 100 a 1.000 volte superiore a quella di EleutherAI, a livello globale. (Nota: questo autore non è affiliato a EleutherAI.)

Non dovremmo fermarci. Ora come ora dobbiamo tutti dare priorità, investire, contribuire e pubblicare ampiamente modelli di IA realmente aperti. Dobbiamo stare in guardia contro coloro che cercano di controllare il destino dell'umanità.

Undici anni fa, i primi pionieri nello spazio blockchain si sono uniti e hanno formato la Bitcoin Foundation, un modello per l'organizzazione del settore delle criptovalute che bilancia le esigenze e gli obiettivi dei privati ​​con quelli delle aziende che avrebbero fatto prosperare le Cripto . La Fondazione comprendeva molti tipi di persone e molti obiettivi, ma eravamo uniti nel volere che Bitcoin prosperasse al di fuori del controllo di un singolo gruppo o cabala. Credo che qualcosa di simile sia necessario per la Tecnologie AI, prendendo le migliori lezioni dell'ultimo decennio e oltre di Tecnologie decentralizzata e abbinandole a un forte impegno per l'indipendenza, l'umanità e l'apertura.

La pausa proposta consoliderebbe il controllo dello sviluppo dell'IA tra i ricchi e i potenti. Invece, corriamo avanti insieme e apertamente. Invito chi la pensa come noi, gli scettici e i curiosi a discutere di come possiamo raggiungere un futuro migliore. Connettiti con altri che si impegnano a mantenere l'IA libera e aperta a tutti sumovimentolibero.com.

Nota: Le opinioni espresse in questa rubrica sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.