Una lettera aperta firmata da Elon Musk e Steve Wozniak chiede una pausa di 6 mesi per le AI

Christian Boscolo
| 4 min read

Le intelligenze artificiali stanno vivendo un periodo d’oro ma insieme al loro utilizzo crescono anche le preoccupazioni degli esperti. Ieri è stata pubblicata una lettera aperta dall’istituto no-profit Future of Life Institute una vera e propria petizione online per chiedere una “pausa di 6 mesi sull’addestramento di sistemi di IA più potenti di GPT-4”.

La lettera è stata firmata da più 1.800 persone, tra cui Elon Musk, il cofondatore di Apple Steve Wozniak, l’amministratore delegato di Stability AI Emad Mostaque, i ricercatori del laboratorio di AI di Alphabet DeepMind e importanti personalità scientifiche specializzate nell’utilizzo e nell’addestramento delle intelligenze artificiali. Chiunque può comunque partecipare aggiungendo il suo nome alla lista firmando digitalmente questa rivoluzionaria “lettera aperta”.

 

Chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4.

 

La premessa


Sul sito del Future of Life Institute è possibile anche leggere le motivazioni che hanno portato a questa presa di posizione:

I sistemi di IA dotati di un’intelligenza competitiva come quella umana possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di IA. Come affermato nei Principi di IA di Asilomar, ampiamente approvati, l’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate.

Purtroppo, questo livello di pianificazione e gestione non sta avvenendo, anche se negli ultimi mesi i laboratori di IA si sono impegnati in una corsa per sviluppare e impiegare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile.

I sistemi di intelligenza artificiale contemporanei stanno diventando competitivi con gli esseri umani in compiti generali e dobbiamo chiederci se sia il caso di lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità?

Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, obsolete e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader tecnologici non eletti. I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili.

Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull’intelligenza artificiale generale afferma che “a un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri, e per gli sforzi più avanzati concordare di limitare il tasso di crescita dei calcoli utilizzati per creare nuovi modelli”. Siamo d’accordo. Quel momento è adesso.

Pertanto, chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4. Questa pausa dovrebbe essere pubblica e verificabile. Questa pausa deve essere pubblica e verificabile e deve includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.

I laboratori di IA e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri al di là di ogni ragionevole dubbio.

Ciò non significa una pausa nello sviluppo dell’IA in generale, ma solo un passo indietro rispetto alla pericolosa corsa verso modelli black-box sempre più grandi e imprevedibili con capacità emergenti.

La ricerca e lo sviluppo dell’IA dovrebbero concentrarsi sul rendere i  sistemi all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.

Parallelamente, gli sviluppatori di IA devono lavorare con i politici per accelerare lo sviluppo di solidi sistemi di governance dell’IA. Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all’IA; supervisione e tracciamento di sistemi di IA altamente capaci e di grandi bacini di capacità computazionale; sistemi di provenienza e watermarking per aiutare a distinguere il reale dal sintetico; un robusto ecosistema di auditing e certificazione; responsabilità per i danni causati dall’IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA; istituzioni ben finanziate per far fronte ai drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che l’IA causerà.

L’umanità può godere di un futuro fiorente con l’IA. Essendo riusciti a creare potenti sistemi di IA, possiamo ora goderci una “estate dell’IA” in cui raccogliere i frutti, progettare questi sistemi per il chiaro beneficio di tutti e dare alla società la possibilità di adattarsi.

La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici per la società  e possiamo farlo anche in questo caso. Godiamoci una lunga estate dell’IA, non precipitiamoci impreparati in un autunno.

A cosa serve questa pausa?


Come indicato nella parte centrale del documento, prima di procedere con ulteriori sviluppi dell’IA vengono chieste alcune garanzie di carattere normativo e sociale.

Tra queste spiccano lo sviluppo di una governance per stabilire regole precise e stringenti, la possibilità di riconoscere il sintetico dal reale, (avete presente le foto del Papa con il piumino Moncler bianco?), finanziamenti per la ricerca e per sanare eventuali problemi causati dall’IA e soprattutto nuove istituzioni per far fronte ai cambiamenti sociali (nel mirino c’è soprattutto il mondo del lavoro) che inevitabilmente avverranno.

Insomma, l’impressione è che la crescita delle intelligenze artificiali sia più veloce delle norme che dovrebbero regolarla. Non uno stop dunque, perché il progresso non si può arrestare, ma una pausa per permettere a legislatori, scienziati e istituzioni di porre paletti e regole, prima che sia troppo tardi.

E voi cosa ne pensate?

Segui Cryptonews Italia sui canali social