Groq, un nuovo modello di intelligenza artificiale, sfida (e batte) Grok di Elon Musk e ChatGPT

Lucio Prosperi
| 4 min read

Un nuovo sistema di intelligenza artificiale sta attirando notevole attenzione sui social media grazie alla sua fulminea velocità di risposta e all’innovativa tecnologia che sembra avere tutte le carte in regola per sfidare Grok di Elon Musk e ChatGPT.

Ci riferiamo a Groq (sulla questione del nome torneremo a breve…), l’ultima innovazione nel campo dell’intelligenza artificiale, che sta facendo parlare di sé e che ha rapidamente attirato l’attenzione dopo che i test di benchmark pubblici sono diventati virali in seguito alla pubblicazione di diversi post sulla popolare piattaforma social X.

Molti utenti, infatti, hanno condiviso video delle straordinarie prestazioni di Groq, mettendo in mostra la sua potenza computazionale che supera in velocità il ben noto chatbot ChatGPT.

Groq sviluppa un chip ASIC personalizzato


Ciò che differenzia Groq dalla concorrenza è lo sviluppo, da parte del suo team, di un chip integrato specifico per applicazioni (ASIC) progettato appositamente per modelli di lingua di grandi dimensioni (LLM).

Questo potente chip consente a GroqChat di generare 500 parole al secondo, un dato davvero impressionante, tenendo conto che la versione attualmente disponibile di ChatGPT, nota come ChatGPT-3.5, si ferma a sole 40 parole al secondo.

Groq Inc, la società che sta portando avanti questo progetto di intelligenza artificiale, sostiene di aver sviluppato un chip per l’IA definito dal software denominato language processing unit (LPU), il quale agisce come motore per il modello di Groq.

A differenza dei tradizionali modelli di intelligenza artificiale, che dipendono pesantemente dalle unità di elaborazione grafica (GPU), che sono sia scarse che costose, l’LPU di Groq offre una soluzione alternativa con velocità ed efficienza impareggiabili.

La questione del nome


Bisogna ricordare che Groq Inc non è un nuovo arrivato nell’industria, visto che l’azienda è stata fondata nel 2016, quando ha richiesto (e ottenuto) la registrazione del nome “Groq”.

Lo scorso novembre, al momento della presentazione da parte di Elon Musk del suo modello di intelligenza artificiale, chiamato Grok (con una “k”), gli originari creatori di Groq hanno condiviso le loro riflessioni attraverso un post sul loro blog riguardo alla scelta del nome fatta da Musk.

Con un approccio giocoso ma deciso, hanno evidenziato le similitudini e hanno invitato il proprietario di Tesla a optare per un nome diverso, considerando l’associazione con il loro già affermato brand.

Nonostante l’attuale risonanza sui social media, né Musk né la pagina Grok su X hanno commentato la sovrapposizione di nomi tra i due strumenti di Intelligenza Artificiale…

Sviluppatori di IA per la creazione di chip personalizzati

La capacità del modello LPU personalizzato di GroqChat nel superare altri modelli popolari basati su GPU ha destato scalpore.Alcuni speculano addirittura che le LPU di Groq potrebbero offrire un miglioramento significativo rispetto alle GPU, sfidando l’hardware ad alte prestazioni di chip richiesti come l’A100 e l’H100 di Nvidia.

L’utente Jay Scambler su X ha scritto: “Groq ha ideato una nuova unità di elaborazione – denominata Tensor Streaming Processor (TSP) – classificata come Linear Processor Unit (LPU)’. Questo significa che le prestazioni possono essere previste e ottimizzate con precisione, un aspetto cruciale nelle applicazioni di intelligenza artificiale in tempo reale.”

La tendenza si allinea con l’attuale movimento dell’industria, in cui i principali sviluppatori di Intelligenza Artificiale stanno esplorando attivamente lo sviluppo di chip interni per ridurre la dipendenza esclusiva dai modelli di Nvidia.

Per esempio, OpenAI, al momento probabilmente l’attore principale nel campo dell’IA, secondo quanto emerge da diverse voci di corridoio, sta cercando consistenti finanziamenti da parte di governi e investitori di tutto il mondo per sviluppare il proprio chip.

Sam Altman si è spesso soffermato sul problema dell’offerta e della domanda per i chip di intelligenza artificiale, visto che tutte le principali aziende di intelligenza artificiale ne hanno bisogno, ma non ce ne sono a sufficienza per tutti. Questo, inevitabilmente, rischia di limitare la crescita di OpenAI.

Ecco perché il fondatore di OpenAI sta prendendo in considerazione un progetto che aumenterebbe la capacità globale di costruzione di chip ed è, secondo quanto riferito, in trattative con diversi investitori, compreso il governo degli Emirati Arabi Uniti. Altman potrebbe aver bisogno di raccogliere tra i 5 e 7 trilioni di dollari per questa impresa, come ha riportato il The Wall Street Journal.

Leggi anche: