Estinzione! - I link della settimana (#34)
(i) Statement on AI Risk (Center for AI Safety, 30 Maggio 2023). È di ieri la dichiarazione, firmata da praticamente tutti i maggiori personaggi coinvolti negli sviluppi recenti dell’intelligenza artificiale, sui rischi ad essa connessi. La dichiarazione stessa è decisamente lapidaria. La traduzione in italiano suona così: “Mitigare il rischio di estinzione dovuto all’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi per la società come le pandemie e la guerra nucleare.” Quando dicono “estinzione” si riferiscono proprio alla nostra, ossia di noi esseri umani. Tutto ciò suona come un film di fantascienza. Possiamo capirci un po’ di più?
(ii) Existential risk from artificial general intelligence (Wikipedia). L’idea che sviluppi futuri dell’intelligenza artificiale possano creare danni per la specie umana, fino all’estinzione, non è certo nuova. Ci sono vari modi in cui le cose potrebbero andare male. Per esempio, se un’intelligenza artificiale diventasse molto più intelligente degli esseri umani (un sottinteso è che la crescita di questa intelligenza sia esponenziale, quindi a un certo punto ne perderemmo il controllo) potrebbe svilupparsi in modo a noi incomprensibile e, a sua volta, noi non saremmo di interesse per l’IA. Potremmo essere di peso per qualche suo piano, o potrebbe utilizzarci per qualche altro scopo, o semplicemente potremmo esserle insignificanti e quindi potrebbe usare le risorse globali senza tenerci in considerazione: chiamiamo questa la versione scarafaggi. Un’altra versione - quella della graffetta - è invece che il problema derivi dalla nostra programmazione, anche se fatta con buone intenzioni. L’idea è che un’intelligenza programmata per uno scopo apparentemente innocuo potrebbe portarlo alle estreme conseguenze e utilizzare le nostre risorse (o direttamente noi) per quello scopo. Immaginate un’IA il cui scopo sia produrre il maggiore numero possibile di graffette. Gli esseri umani potrebbero essere d’intralcio e, in effetti, gli atomi di cui sono fatti gli esseri umani potrebbero venire invece utilizzati per produrre graffette. Devo ammettere, trovo queste speculazioni - e le altre che potete vedere al link - abbastanza interessanti, ma è successo qualcosa recentemente per cui questi scenari siano oggi più probabili di quanto lo erano prima?
(iii) What Is ChatGPT Doing … and Why Does It Work? (Stephen Wolfram, 14 Febbraio 2023). La risposta è, ovviamente, l’avvento dei “large language models” come chatGPT. Come trattato varie volte qui, alcune delle loro abilità sono in effetti impressionanti (e se non l’avete fatto: provate!). Non c’è dubbio che gli effetti della diffusione di queste AI saranno dirompenti. Ma l’estinzione? In questo lungo (molto lungo) pezzo viene spiegato come funzionano. Se avete tempo leggete. La versione breve (troppo breve) è che sono in sostanza macchine probabilistiche molto sofisticate, che predicono, data una sequenza di parole, quelle che le seguono. Ora, la maggior parte di noi - me compreso - sono sorpresi dai risultati di chatGPT e simili, quindi potrebbe essere che ulteriori sviluppi ci portino a scenari simili a quelli riportati sopra? Questa è forse una domanda interessante, ma dubito che ci sia una risposta. Sarebbe utile cercare di capire in che modo rispondere a questa domanda.
(iv) How Rogue AIs may Arise (Yoshua Bengio, 22 Maggio 2023). Un aiuto viene da questo pezzo di Yoshua Bengio, uno degli scienziati coinvolti negli ultimi sviluppi dell’IA (se, come me, fate ricerca, non guardate la sua pagina di Google Scholar). Bengio propone scenari più realistici e degli esempi di come dalla tecnologia attuale si potrebbe arrivare alle situazioni più distruttive. Anche qui, tuttavia, molto lavoro viene fatto da ipotesi speculative ("the recent advances suggest that even the future where we know how to build superintelligent AIs (smarter than humans across the board) is closer than most people expected just a year ago". "Current LLMs have little or no agency but could be transformed into goal-driven AI systems", e via dicendo). Vedete che ne pensate.
(v) Is Avoiding Extinction from AI Really an Urgent Priority? (Seth Lazar, Jeremy Howard, & Arvind Narayanan, fast.ai, 30 Maggio 2023). Dato tutto ciò, si potrebbe obiettare che i rischi dovuti all’IA non siano, per ora, come dalla dichiarazione, “priorità globali […] come le pandemie e la guerra nucleare” e che in effetti, in un mondo di risorse limitate, faremmo meglio a concentrarci su altre priorità (il riscaldamento globale, per esempio, non viene neanche menzionato…). Oppure, che i veri rischi legati alla diffusioni di questi algoritmi siano meno magniloquenti, ma più immediati e realistici (e forse più fastidiosi per i guru dell’IA perché dovrebbero effettivamente fare qualcosa?), come ineguaglianza nell’accesso, concentrazione di potere, sparizione di lavori e via dicendo. Io per ora non mi sono fatto un’opinione ben definita. Vediamo che succederà!