I link della settimana (#38)
(i) So Maybe Facebook Didn’t Ruin Politics (Kaitlyn Tiffany, The Atlantic, 27 Luglio 2023). Durante l’estate sono stati pubblicati quattro articoli (tre in Science, uno in Nature Human Behaviour) risultato di una collaborazione tra Meta (Facebook e Instagram) e ricercatori indipendenti di diverse università. Meta avrebbe fornito i dati e la possibilità di manipolare i feed per realizzare esperimenti e poi lasciato libertà ai ricercatori, secondo le linee guida spiegate qui. I risultati di queste nuove ricerche sono in accordo con quello che ripetiamo qui ogni volta: le manipolazioni di algoritmi e esposizione sui social media non sembrano avere grandi effetti sulla polarizzazione politica. A me questo sembra molto ragionevole, ma i risultati sono stati accolti con scetticismo da media e ricercatori (la stessa rivista Science ha presentato gli studi con una copertina che, in pratica, ha il messaggio opposto). Si, le cose sono complicate, gli effetti potrebbero essere difficili da rilevare, sarebbe meglio che i dati fossero disponibili per tutti i ricercatori, eccetera eccetera, ma è interessante come studi pre-registrati e peer-reviewed vengano considerati con estrema cautela (se il messaggio non ci piace) mentre altri vengano sbandierati ai quattro venti (se il messaggio ci piace).
(ii) TikTok Extends the Wasteland (Jeff Hewitt, The Hedgehog Review, summer 2023 issue). L’articolo riflette sulla possibile continuità tra TikTok e l’intrattenimento televisivo, soprattutto fenomeni tipo reality shows. Mi ha fatto pero’ pensare ad un’altra cosa: i social media oggi più diffusi o in crescita - lo stesso TikTok o YouTube - sono in effetti molto più simili alla televisione, intesa come intrattenimento passivo, che a social media come Twitter o Facebook (entrambi in declino). Potrebbe essere che l’età dei social media, intesa come un periodo dove comunicazione e intrattenimento sono mescolati (e pubblici), sia stata in realtà un periodo molto breve (10-15 anni), relativamente inusuale, viste le caratteristiche della nostra specie, e che sta volgendo al termine?
(iii) Generative AI and intellectual property (Benedict Evans, 27 Agosto 2023). Alcune riflessioni su proprietà intellettuale e intelligenza artificiale, al di là dei soliti allarmismi e che cercano di contestualizzare il problema in una prospettiva più ampia. Se non altro per la citazione: “data isn’t oil; data is sand. It’s only valuable in the aggregate of billions”.
(iv) YouTube’s recommendation algorithm is left-leaning in the United States (Hazem Ibrahim et al., PNAS Nexus, 14 Agosto 2023). In Cinque Link a Settimana abbiamo parlato più volte di come l’idea della “radicalizzazione algoritmica” (ossia che gli algoritmi dei social media tendano a proporci contenuti più radicali di quelli che noi cerchiamo e, in effetti, a spingerci ad esserne influenzati) sia tanto attraente quanto poco provata (e, soprattutto, non necessariamente in linea con quello che consociamo di come l’influenza sociale funziona). Questo articolo mostra, ancora una volta, che l’algoritmo di YouTube - almeno nella sua version corrente - propone contenuti meno estremi di quelli visionati dagli utenti e, incidentalmente, lo fa maggiormente in opposizione a contenuti estremi di destra che di sinistra (al contrario di un’altra idea popolare).
(v) Large language models show human-like content biases in transmission chain experiments (Alberto Acerbi e Joe Stubbersfield, OSF Preprints, 14 Luglio 2023). Non poteva mancare, dopo due mesi, la solita auto-promozione. In alcuni esperimenti in evoluzione culturale, i partecipanti si passano una storia l'uno con l'altro e i ricercatori possono studiare i contenuti che sopravvivono nella catena di trasmissione e quelli che spariscono. Nella ricerca descritta in questo preprint abbiamo fatto la stessa cosa (più o meno) con ChatGPT, cercando di riprodurre cinque esperimenti con umani. ChatGPT ha riprodotto TUTTI i risultati. Questo mostra che, come noi, i LLMs "preferiscono" contenuti che sono, per esempio, negativi, consistenti con gli stereotipi di genere, a proposito di pericoli/minacce, legati ad interazioni sociali/gossip, eccetera. Per questo motivo, quando si utilizzano LLMs per riassumere testi o generarne di nuovi, ci dobbiamo aspettare che i contenuti maggiormente riprodotti siano, come per noi, quelli "cognitivamente attraenti" e non necessariamente più informativi.