Elon Musk e Steve Wozniak sono solo due tra i noti imprenditori, scienziati, sviluppatori ed esperti di intelligenza artificiale che hanno firmato una lettera aperta chiedendo uno stop di sei mesi allo sviluppo di sistemi avanzati di intelligenza artificiale.
Oltre al CEO di Tesla e al co-fondatore di Apple, i più di 1.100 firmatari della lettera includono Emad Mostaque, fondatore e CEO di Stability AI, Connor Leahy, CEO di Conjecture, Jaan Tallinn, co-fondatore di Skype, Evan Sharp, co-fondatore di Pinterest e Chris Larson, co-fondatore di Ripple, hanno firmato. Anche lo scienziato informatico premio Turing e pioniere del deep learning Yoshua Bengio risulta tra i firmatari e sostenitori di questa iniziativa.
La lettera invita le aziende tecnologiche a cessare immediatamente la formazione di qualsiasi sistema di intelligenza artificiale che sarebbe “più potente di GPT-4“, l’ultimo grande sistema di elaborazione del linguaggio naturale sviluppato da OpenAI. La lettera non specifica esattamente come debba essere definita la “potenza” di un modello, ma nei recenti progressi dell’intelligenza artificiale la capacità tende a essere correlata alle dimensioni di un modello di I.A. e al calcolo computazionale necessario per addestrarlo.
Musk è stato uno dei co-fondatori di OpenAI, creata nel 2015 come laboratorio di ricerca senza scopo di lucro. Nel 2018, si è poi allontanato e ha lasciato il consiglio di amministrazione. Più di recente, si è espresso critico sulla decisione dell’azienda di lanciare un’ala a scopo di lucro e accettare gli ingenti investimenti da parte di Microsoft.
Stop all’intelligenza artificiale: il contenuto della lettera
Nella lettera si legge che, con i sistemi di intelligenza artificiale come il GPT-4 che “stanno diventando competitivi con gli esseri umani in compiti generali“, si teme il rischio che tali sistemi vengano utilizzati per generare disinformazione su vasta scala (recente il caso dell’immagine di Papa Francesco con un piumino, generata da Midjourney), nonché l’automazione di massa dei posti di lavoro.
La lettera solleva anche la prospettiva che questi sistemi siano sulla strada della superintelligenza, che potrebbe rappresentare un grave rischio per tutta la civiltà umana. Si afferma che le decisioni sull’IA “non devono essere delegate a leader tecnologici non eletti” e che i sistemi di IA più potenti dovrebbero “essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili“.
LEGGI ANCHE: IL LATO OSCURO DI CHATGPT: COSÌ LE IA AGEVOLANO LE TRUFFE ONLINE
La lettera chiede che tutti i laboratori di IA interrompano immediatamente l’addestramento di sistemi di IA più potenti del GPT-4 per almeno sei mesi e dice che la moratoria dovrebbe essere “verificabile“. La lettera non dice come funzionerebbe tale verifica, ma afferma che se le aziende stesse non accettano una pausa, allora i governi di tutto il mondo “dovrebbero intervenire e istituire una moratoria“.
La lettera afferma che lo sviluppo e il perfezionamento dei sistemi di I.A. esistenti possono continuare, ma che la formazione di nuovi sistemi ancora più potenti dovrebbe essere messa in pausa.
“La ricerca e lo sviluppo dell’IA dovrebbero concentrarsi sul rendere i potenti sistemi all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali“
Spazio anche a potenziali strumenti e protocolli di sicurezza e di governance relativi allo sviluppo e alla gestione delle intelligenze artificiali. Durante i sei mesi di pausa gli sviluppatori e i ricercatori accademici dovrebbero sviluppare una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di I.A., mentre i governi dovrebbero “accelerare drasticamente lo sviluppo di solidi sistemi di governance delle intelligenze artificiali“.
Né OpenAI né altri sviluppatori di questi potenti modelli di I.A. hanno ancora commentato la lettera aperta.