Post di ENTE NAZIONALE per l'INTELLIGENZA ARTIFICIALE - E.N.I.A.®

L’AI che ricerca se stessa: un futuro tra accelerazione e rischio La capacità dell’intelligenza artificiale di condurre ricerca e sviluppo su sé stessa (AI R&D) è considerata da molti osservatori una delle frontiere più delicate. Se i sistemi raggiungessero la parità con i migliori ricercatori umani, si potrebbe innescare una dinamica di auto-miglioramento ricorsivo, nota come intelligence explosion. Questa eventualità, secondo alcuni, avrebbe conseguenze dirompenti sull’economia globale, sull’energia e sulla sicurezza collettiva. Uno studio pilota recente ha applicato il judgmental forecasting, metodo che affida a esperti e “superforecaster” la stima di scenari futuri, per indagare due domande cruciali: l’AI R&D porterà a un’accelerazione senza precedenti del progresso e, se sì, tale accelerazione potrà generare eventi estremi per la società? I risultati mostrano divergenze significative. Gli esperti del settore attribuiscono il 20% di probabilità a un’accelerazione almeno tripla entro il 2029, contro l’8% stimato dai superforecaster. La forbice si amplia se si considera lo scenario in cui l’AI sostituisca pienamente un ricercatore di punta: qui gli esperti salgono al 52,5%, mentre i superforecaster restano su un modesto 7,5%. Entrambi i gruppi concordano che i progressi più plausibili non arriveranno dal semplice aumento della potenza computazionale, ma da miglioramenti post-training, come ottimizzazione delle catene di ragionamento o tecniche di inferenza scalata. Più incerta invece la traiettoria dell’innovazione algoritmica, mentre l’ipotesi di un salto radicale nell’hardware è ritenuta poco probabile. Sul fronte degli impatti sociali, la distanza è ancora più marcata. Gli esperti ritengono non trascurabile (fino al 35%) il rischio che entro il 2035 si verifichi un cambiamento radicale nei consumi energetici globali o un disastro paragonabile al COVID-19. I superforecaster, al contrario, collocano queste probabilità sotto l’1%, richiamando vincoli fisici, costi e capacità di intervento umano. Il confronto rivela dunque due visioni opposte: da un lato gli esperti, consapevoli delle potenzialità trasformative e dei rischi intrinseci; dall’altro i superprevisori, che adottano un approccio più scettico e ancorato alla storia delle innovazioni tecnologiche. Trattandosi di un campione ridotto, i risultati sono solo indizi preliminari. Ma lo studio segnala l’urgenza di sviluppare metodologie robuste per stimare non solo i progressi dell’AI, ma anche la loro capacità di generare scenari di rischio sistemico. La domanda di fondo resta aperta: la ricerca autonoma delle macchine sarà scintilla di progresso sostenibile o detonatore di nuove fragilità globali?

Per visualizzare o aggiungere un commento, accedi