Stop allo sviluppo di sistemi evoluti di Intelligenza artificiale, lettera di Elon Musk
Messa in Pausa gli Esperimenti di Intelligenza Artificiale evoluta: Una Lettera Aperta di Elon Musk e altri esperti di tecnologia
Chiediamo a tutti i laboratori di intelligenza artificiale di mettere immediatamente in pausa per almeno 6 mesi l'addestramento di sistemi IA più potenti di GPT-4.
I sistemi di intelligenza artificiale con intelligenza competitiva umana possono comportare rischi profondi per la società e l'umanità, come dimostrato da numerose ricerche e riconosciuto dai principali laboratori di IA. Come affermato nei Principi di Asilomar sull'IA, ampiamente condivisi, un'IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con risorse e attenzione proporzionate. Sfortunatamente, questo livello di pianificazione e gestione non sta avvenendo, nonostante negli ultimi mesi i laboratori di IA si siano ritrovati in una corsa incontrollata allo sviluppo e all'implementazione di menti digitali sempre più potenti che nessuno - nemmeno i loro creatori - può comprendere, prevedere o controllare in modo affidabile.
I sistemi di intelligenza artificiale contemporanei stanno diventando competitivi con gli esseri umani in compiti generali, e dobbiamo chiederci:
Dobbiamo lasciare che le macchine inondino i nostri canali informativi con propaganda e falsità?
Dobbiamo automatizzare tutti i lavori, anche quelli appaganti?
Dobbiamo sviluppare menti non umane che potrebbero alla fine superare in numero, intelligenza e rendere obsoleti e sostituire noi stessi?
Dobbiamo rischiare la perdita di controllo della nostra civiltà?
Tali decisioni non devono essere delegate a leader tecnologici non eletti. I potenti sistemi di IA dovrebbero essere sviluppati solo una volta che siamo sicuri che i loro effetti saranno positivi e i loro rischi saranno gestibili. Questa fiducia deve essere ben giustificata e aumentare con l'entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI riguardo all'intelligenza artificiale generale afferma che
"A un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare a formare sistemi futuri e perché gli sforzi più avanzati si impegnino a limitare la crescita della potenza di calcolo utilizzata per creare nuovi modelli". Siamo d'accordo. Quel momento è adesso.
Pertanto, chiediamo a tutti i laboratori di intelligenza artificiale di mettere immediatamente in pausa per almeno 6 mesi l'addestramento di sistemi IA più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile, e includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.
I laboratori di IA e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare insieme un insieme di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzata, che siano rigorosamente controllati e supervisionati da esperti esterni indipendenti. Tali protocolli dovrebbero garantire che i sistemi aderenti siano sicuri oltre ogni ragionevole dubbio. Ciò non significa una pausa nello sviluppo dell'IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa verso modelli sempre più grandi e imprevedibili, con capacità emergenti.
La ricerca e lo sviluppo dell'IA dovrebbero essere riorientati verso il rendere i potenti sistemi all'avanguardia di oggi più precisi, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.
Parallelamente, gli sviluppatori di IA devono lavorare con i responsabili politici per accelerare notevolmente lo sviluppo di robusti sistemi di governance dell'IA. Questi dovrebbero includere almeno:
- nuove e capaci autorità di regolamentazione dedicate all'IA;
- supervisione e monitoraggio di sistemi di IA altamente capaci e grandi quantità di potenza di calcolo;
- sistemi di provenienza e marcatura per distinguere il reale dal sintetico e tracciare le perdite di modelli;
- un robusto ecosistema di controllo e certificazione; responsabilità per i danni causati dall'IA;
- finanziamenti pubblici robusti per la ricerca sulla sicurezza tecnica dell'IA;
- istituzioni ben finanziate per affrontare le drammatiche interruzioni economiche e politiche (in particolare per la democrazia) causate dall'IA.
L'umanità può godere di un futuro fiorente con l'IA. Avendo avuto successo nel creare potenti sistemi di IA, possiamo ora godere di un'"estate dell'IA" in cui raccogliamo i frutti, ingegnerizziamo questi sistemi a beneficio di tutti e diamo alla società la possibilità di adattarsi.
In passato abbiamo messo in pausa altre tecnologie con potenziali effetti catastrofici sulla società. Possiamo fare lo stesso ora. Godiamoci una lunga estate dell'IA, invece di precipitarci impreparati verso un autunno.
Tradotto da: Pause Giant AI Experiments: An Open Letter