I link della settimana (#31)
(i) Our Deep Blue Moment (Francisco Toro, Persuasion, 14 Aprile 2023). Quale è stata la conseguenza maggiore del fatto che, già da diversi anni, i computer giocano a scacchi come - o meglio - degli esseri umani? Beh, che gli esseri umani sono, a loro volta, diventati più bravi; e che persone prive delle possibilità economiche o sociali di allenarsi con grandi maestri possono comunque allenarsi ad alti livelli. Un’opinione positiva tra le tante (meno positive) sui nuovi sviluppi di intelligenza artificiale. Ancora una volta: dobbiamo pensarli - e svilupparli - non come competitori ma come collaboratori. Come farlo è una questione molto importante per i prossimi anni.
(ii) OpenAI’s CEO Says the Age of Giant AI Models Is Already Over (Will Knight, Wired, 17 Aprile 2023). Mentre molti si interrogano su quando i nuovi LLMs (large language models), come ChatGPT e simili, diventeranno più intelligenti di noi, o addirittura prenderanno il potere eliminandoci, Sam Altman, il CEO di OpenAI, gli sviluppatori di ChatGPT (che, quindi, ne dovrebbe sapere qualcosa), si chiede se, allo stato attuale di sviluppo, abbiamo già raggiunto il limite delle loro possibilità. Per ulteriori progressi servirebbero nuove innovazioni - e non sappiamo ancora quali potrebbero essere. Da una parte, il nostro Sam potrebbe semplicemente stare minimizzando su quello che potrebbe succedere in futuro per evitare troppa attenzione. Ma, dall’altra, questi modelli non sono altro che delle grandi reti neurali addestrate su molti (moltissimi) dati. Chissà.
(iii) AI Incident Database. Per finire con il tema, un database, operativo già da alcuni anni, che raccoglie incidenti che sarebbero avvenuti per colpa di sistemi di intelligenza artificiale. Dalla presentazione:
The AI Incident Database is dedicated to indexing the collective history of harms or near harms realized in the real world by the deployment of artificial intelligence systems. Like similar databases in aviation and computer security, the AI Incident Database aims to learn from experience so we can prevent or mitigate bad outcomes.
Per ora non sembra ci sia granché, ma l’idea sembra ragionevole - e se siete interessati è un buon punto di partenza per fare ricerca.
(iv) What Makes News Sharable on Social Media? (Xi Chen et al, Journal of Quantitative Description: Digital Media, 18 Aprile 2023). I risultati non sono tra i più sorprendenti, ma mostrano che l’evocatività di una news è più importante della sua accuratezza percepita, quando decidiamo se condividerla oppure no. Insomma, più che condividere notizie vere, i partecipanti di questo studio preferirebbero condividere notizie interessanti (anche se il fatto di essere vere ha un effetto nello studio, e ancora di più se, come nella vita reale, ci possono essere delle conseguenze). La mia interpretazione è ancora una volta che il panico sulle fake news non sia giustificato: siamo in grado di riconoscere che una notizia potrebbe essere falsa e nello stesso tempo condividerla per altre ragioni (e coloro con cui la condividiamo anche).
(v) Un’auto-promozione peggiore del solito: nel caso venerdì prossimo (28 Aprile 2023) foste dalle parti di Siena, terrò un seminario intitolato Disinformati sulla disinformazione nell’ambito del corso “Mass media, cultura digitale e società”, quindi su argomenti spesso toccati in questa newsletter, con la differenza che ci metterò la faccia e potrete rispondermi.