Cynthia Lummis propone un disegno di legge sull'intelligenza artificiale, che richiede alle aziende del settore di divulgare dettagli tecnici.
Il RISE Act della senatrice Cynthia Lummis stabilisce nuovi standard di trasparenza per la protezione dalla responsabilità nell’ambito dell’IA, imponendo obblighi di divulgazione senza obbligare le aziende a rendere open-source i propri modelli.

Cosa sapere:
- La senatrice Cynthia Lummis ha presentato il RISE Act del 2025 per chiarire la responsabilità nell'uso dell'IA da parte dei professionisti e per imporre trasparenza agli sviluppatori.
- Il disegno di legge richiede agli sviluppatori di IA di pubblicare schede modello che dettagliano le fonti dei dati dei sistemi IA, i casi d'uso e le limitazioni.
- Il RISE Act non arriva a richiedere che i modelli di IA siano open source, ma impone aggiornamenti e giustificazioni per le informazioni proprietarie non divulgate.
Il senatore Cynthia Lummis (R-WY) ha presentato il Responsible Innovation and Safe Expertise (RISE) Act of 2025, una proposta legislativa progettata per chiarire i quadri di responsabilità per l'intelligenza artificiale (IA) utilizzata dai professionisti.
Il disegno di legge potrebbe portare trasparenza dagli sviluppatori di IA – senza arrivare a richiedere che i modelli siano open source.
In un comunicato stampa, Lummis ha dichiarato che il RISE Act significherebbe che i professionisti, come medici, avvocati, ingegneri e consulenti finanziari, rimangono legalmente responsabili per i consigli che forniscono, anche quando essi sono informati da sistemi di IA.
Al momento, gli sviluppatori di IA che creano i sistemi possono proteggersi dalla responsabilità civile quando le cose vanno storte solo se rilasciano pubblicamente le schede dei modelli.
Il disegno di legge proposto definisce le schede dei modelli come documenti tecnici dettagliati che rivelano le fonti dei dati di addestramento di un sistema IA, i casi d'uso previsti, le metriche di prestazione, le limitazioni conosciute e i potenziali modi di fallimento. Tutto ciò è inteso ad aiutare i professionisti a valutare se lo strumento è appropriato per il loro lavoro.
"Il Wyoming valorizza sia l'innovazione che la responsabilità; il RISE Act crea standard prevedibili che incoraggiano uno sviluppo più sicuro dell'IA preservando l'autonomia professionale," ha detto Lummis in un comunicato stampa.
“Questa legislazione non crea un'immunità totale per l'IA," ha continuato Lummis.
Tuttavia, l'immunità concessa da questo Atto ha limiti chiari. La legislazione esclude la protezione per gli sviluppatori in casi di negligenza grave, condotta dolosa, frode, falsa rappresentazione consapevole o quando le azioni si collocano al di fuori dell'ambito definito dell'uso professionale.
Inoltre, gli sviluppatori affrontano un dovere di responsabilità continua secondo il RISE Act. La documentazione e le specifiche dell'IA devono essere aggiornate entro 30 giorni dal dispiegamento di nuove versioni o dalla scoperta di modalità di fallimento significative, rafforzando così gli obblighi continui di trasparenza.
Non arriva all'open source
Il RISE Act, così come è scritto ora, non arriva a imporre che i modelli di IA diventino pienamente open source.
Gli sviluppatori possono trattenere informazioni proprietarie, ma solo se il materiale oscurato non è relativo alla sicurezza, e ogni omissione è accompagnata da una giustificazione scritta che spiega l'esenzione come segreto commerciale.
In una precedente intervista a CoinDesk, Simon Kim, CEO di Hashed, uno dei maggiori fondi VC della Corea, ha parlato del pericolo di un'IA centralizzata e closed-source che è effettivamente una scatola nera.
"OpenAI non è aperta, ed è controllata da pochissime persone, quindi è piuttosto pericolosa. Creare questo tipo di modello fondazionale [closed source] è simile a fare un 'dio', ma non sappiamo come funziona," ha detto Kim all'epoca.
Di più per voi
Protocol Research: GoPlus Security

Cosa sapere:
- As of October 2025, GoPlus has generated $4.7M in total revenue across its product lines. The GoPlus App is the primary revenue driver, contributing $2.5M (approx. 53%), followed by the SafeToken Protocol at $1.7M.
- GoPlus Intelligence's Token Security API averaged 717 million monthly calls year-to-date in 2025 , with a peak of nearly 1 billion calls in February 2025. Total blockchain-level requests, including transaction simulations, averaged an additional 350 million per month.
- Since its January 2025 launch , the $GPS token has registered over $5B in total spot volume and $10B in derivatives volume in 2025. Monthly spot volume peaked in March 2025 at over $1.1B , while derivatives volume peaked the same month at over $4B.
Di più per voi
La CFTC Avvia un Progetto Pilota sugli Asset Digitali Consentendo Bitcoin, Ether e USDC come Garanzia

La Presidente ad interim Caroline Pham ha svelato un programma statunitense senza precedenti per consentire l'uso di garanzie tokenizzate nei mercati dei derivati, citando "chiare linee guida" per le società.
Cosa sapere:
- La CFTC ha avviato un programma pilota che consente l’utilizzo di BTC, ETH e USDC come garanzia nei mercati derivati statunitensi.
- Il programma è rivolto ai mercanti di commissione futures autorizzati e comprende rigorosi requisiti di custodia, rendicontazione e supervisione.
- L'agenzia ha inoltre pubblicato linee guida aggiornate per gli asset tokenizzati e ha ritirato restrizioni obsolete a seguito del GENIUS Act.











