Groq, un nuovo modello di intelligenza artificiale, sfida (e batte) Grok di Elon Musk e ChatGPT
- Ripple ha aggiornato XRP Ledger (XRPL): ecco cosa cambia
- Bitcoin verso i 15.000 dollari? L’analisi che confronta BTC e oro spacca il mercato
- Tokenizzazione e trasparenza dei mercati accendono i riflettori su XRP
- Strategy compra 10.624 Bitcoin per 1 miliardo di dollari
- Quotazioni criptovalute: che cosa può influenzare il mercato entro Natale?

Un nuovo sistema di intelligenza artificiale sta attirando notevole attenzione sui social media grazie alla sua fulminea velocità di risposta e all’innovativa tecnologia che sembra avere tutte le carte in regola per sfidare Grok di Elon Musk e ChatGPT.
Ci riferiamo a Groq (sulla questione del nome torneremo a breve…), l’ultima innovazione nel campo dell’intelligenza artificiale, che sta facendo parlare di sé e che ha rapidamente attirato l’attenzione dopo che i test di benchmark pubblici sono diventati virali in seguito alla pubblicazione di diversi post sulla popolare piattaforma social X.
Molti utenti, infatti, hanno condiviso video delle straordinarie prestazioni di Groq, mettendo in mostra la sua potenza computazionale che supera in velocità il ben noto chatbot ChatGPT.
side by side Groq vs. GPT-3.5, completely different user experience, a game changer for products that require low latency pic.twitter.com/sADBrMKXqm
— Dina Yerlan (@dina_yrl) February 19, 2024
Groq sviluppa un chip ASIC personalizzato
Ciò che differenzia Groq dalla concorrenza è lo sviluppo, da parte del suo team, di un chip integrato specifico per applicazioni (ASIC) progettato appositamente per modelli di lingua di grandi dimensioni (LLM).
Questo potente chip consente a GroqChat di generare 500 parole al secondo, un dato davvero impressionante, tenendo conto che la versione attualmente disponibile di ChatGPT, nota come ChatGPT-3.5, si ferma a sole 40 parole al secondo.
Groq Inc, la società che sta portando avanti questo progetto di intelligenza artificiale, sostiene di aver sviluppato un chip per l’IA definito dal software denominato language processing unit (LPU), il quale agisce come motore per il modello di Groq.
A differenza dei tradizionali modelli di intelligenza artificiale, che dipendono pesantemente dalle unità di elaborazione grafica (GPU), che sono sia scarse che costose, l’LPU di Groq offre una soluzione alternativa con velocità ed efficienza impareggiabili.
Wow, that's a lot of tweets tonight! FAQs responses.
• We're faster because we designed our chip & systems
• It's an LPU, Language Processing Unit (not a GPU)
• We use open-source models, but we don't train them
• We are increasing access capacity weekly, stay tuned pic.twitter.com/nFlFXETKUP— Groq Inc (@GroqInc) February 19, 2024
La questione del nome
Bisogna ricordare che Groq Inc non è un nuovo arrivato nell’industria, visto che l’azienda è stata fondata nel 2016, quando ha richiesto (e ottenuto) la registrazione del nome “Groq”.
Lo scorso novembre, al momento della presentazione da parte di Elon Musk del suo modello di intelligenza artificiale, chiamato Grok (con una “k”), gli originari creatori di Groq hanno condiviso le loro riflessioni attraverso un post sul loro blog riguardo alla scelta del nome fatta da Musk.
Con un approccio giocoso ma deciso, hanno evidenziato le similitudini e hanno invitato il proprietario di Tesla a optare per un nome diverso, considerando l’associazione con il loro già affermato brand.
Nonostante l’attuale risonanza sui social media, né Musk né la pagina Grok su X hanno commentato la sovrapposizione di nomi tra i due strumenti di Intelligenza Artificiale…
Sviluppatori di IA per la creazione di chip personalizzati
La capacità del modello LPU personalizzato di GroqChat nel superare altri modelli popolari basati su GPU ha destato scalpore.Alcuni speculano addirittura che le LPU di Groq potrebbero offrire un miglioramento significativo rispetto alle GPU, sfidando l’hardware ad alte prestazioni di chip richiesti come l’A100 e l’H100 di Nvidia.
L’utente Jay Scambler su X ha scritto: “Groq ha ideato una nuova unità di elaborazione – denominata Tensor Streaming Processor (TSP) – classificata come Linear Processor Unit (LPU)’. Questo significa che le prestazioni possono essere previste e ottimizzate con precisione, un aspetto cruciale nelle applicazioni di intelligenza artificiale in tempo reale.”
Groq is serving the fastest responses I've ever seen. We're talking almost 500 T/s!
I did some research on how they're able to do it. Turns out they developed their own hardware that utilize LPUs instead of GPUs. Here's the skinny:
Groq created a novel processing unit known as… pic.twitter.com/mgGK2YGeFp
— Jay Scambler (@JayScambler) February 19, 2024
La tendenza si allinea con l’attuale movimento dell’industria, in cui i principali sviluppatori di Intelligenza Artificiale stanno esplorando attivamente lo sviluppo di chip interni per ridurre la dipendenza esclusiva dai modelli di Nvidia.
Per esempio, OpenAI, al momento probabilmente l’attore principale nel campo dell’IA, secondo quanto emerge da diverse voci di corridoio, sta cercando consistenti finanziamenti da parte di governi e investitori di tutto il mondo per sviluppare il proprio chip.
Sam Altman si è spesso soffermato sul problema dell’offerta e della domanda per i chip di intelligenza artificiale, visto che tutte le principali aziende di intelligenza artificiale ne hanno bisogno, ma non ce ne sono a sufficienza per tutti. Questo, inevitabilmente, rischia di limitare la crescita di OpenAI.
Ecco perché il fondatore di OpenAI sta prendendo in considerazione un progetto che aumenterebbe la capacità globale di costruzione di chip ed è, secondo quanto riferito, in trattative con diversi investitori, compreso il governo degli Emirati Arabi Uniti. Altman potrebbe aver bisogno di raccogliere tra i 5 e 7 trilioni di dollari per questa impresa, come ha riportato il The Wall Street Journal.
Leggi anche:
- La tabella degli Anni per fare Soldi: funziona o è una leggenda metropolitana
- 5 motivi per cui Bitcoin è in calo e cosa aspettarsi nei primi mesi del 2026
- Come diventare crypto-milionari nel 2026? ChatGPT svela il segreto
- Le fees di Ethereum si raffreddano mentre gli utenti riconsiderano la custodia – BMIC ($BMIC) combina la sicurezza di livello hardware con l’accesso Web3
- VFX esplora un percorso crypto diverso ancorando l’utilità all’attività reale del mercato forex
Perché puoi fidarti di noi
Da oltre dieci anni il team di Cryptonews è al lavoro quotidiano per fornire ai propri lettori approfondimenti e guide su tutte le tematiche del settore delle criptovalute. I nostri esperti ed analisti hanno una vasta esperienza nell’analisi di mercato e sulle tecnologie blockchain. Ci impegniamo a mantenere elevati i nostri standard editoriali, concentrandoci sull’accuratezza dei fatti e su un reporting equilibrato e terzo in tutte le aree, dalle criptovalute alla blockchain, ai nuovi progetti e sviluppi tecnologici. La nostra presenza costante nel settore riflette il nostro impegno nel fornire informazioni rilevanti in un mondo, quello delle risorse digitali, che è sempre più in evoluzione. Scopri di più su Cryptonews.
Disclaimer
Siamo fautori di un rapporto basato sulla più totale trasparenza con i nostri lettori. Ed è per questo che teniamo a sottolineare che alcuni dei nostri contenuti potrebbero includere link di affiliazione, da cui poter guadagnare una commissione attraverso queste partnership.
Segui Cryptonews
2M+
250+
8
70
Uno sguardo al mercato
- 7 giorni
- 1 mese
- 1 anno
- La tabella degli Anni per fare Soldi: funziona o è una leggenda metropolitana
- 5 motivi per cui Bitcoin è in calo e cosa aspettarsi nei primi mesi del 2026
- Come diventare crypto-milionari nel 2026? ChatGPT svela il segreto
- Le fees di Ethereum si raffreddano mentre gli utenti riconsiderano la custodia – BMIC ($BMIC) combina la sicurezza di livello hardware con l’accesso Web3
- VFX esplora un percorso crypto diverso ancorando l’utilità all’attività reale del mercato forex
Altri articoli in evidenza
Tutte le notizie crypto in soli 3 minuti!