I link della settimana (#26)
(i)Understanding Social Media Recommendation Algorithms (Arvind Narayanan, Algorithmic Amplification and Society, 9 marzo 2023). Un’introduzione non specialistica (ma un po’ lunga: se volete una scorciatoia è in questo twitter thread) agli algoritmi che ci raccomandano contenuti online, dai social media ai programmi Netflix. Insieme a molte informazioni interessanti, i due take-home message sono, a mio avviso: dovremmo conoscere di più del funzionamento di questi algoritmi che sono generalmente non pubblici (mentre i social media tendono a condividere dati sui loro feed, sembrano molto più restrittivi riguardo agli algoritmi) ed è importante tenere conto sia del funzionamento degli algoritmi che del comportamento degli utenti. L’interazione è il risultato interessante, contro alcune visioni un po’ riduzioniste per cui gli algoritmi determinano la nostra attività online.
(ii) Why was teen mental health so bad in the early 1990s? (Jonah Davis, tweet, 7 marzo 2023). Tornando al tema della relazione tra salute mentale degli adolescenti e uso dei social media, i grafici riportati in questo tweet aiutano ad avere una prospettiva temporale leggermente più lunga. O, in modo simile, una prospettiva demografica più ampia.
(iii) Social Media Is Changing, And Paid Accounts Are The Response (Alex Kantrowitz, Big Technology, 3 marzo 2023). Dopo Twitter Blue a pagamento, anche Meta (Facebook/Instagram) ha annunciato di stare testando l’introduzione di utenti “verificati”, sempre in cambio di una somma mensile. Le reazioni della maggior parte degli utenti sono state, nel caso di Twitter, non sorprendentemente, negative (non riesco a non menzionare il fatto che, prima, la maggior parte degli utenti si lamentava comunque che, “se non paghi, allora sei il prodotto”…). È questo un cambiamento più generale del panorama dei social media? Il breve articolo linkato qui suggerisce che potrebbe essere il caso, e che sia legato al fatto che la produzione dei contenuti sui social media stia diventando sempre più lavoro per professionisti, con gli utenti comuni a fare da spettatori. Non so quanto sia vero, ma sembrerebbe un ritorno a media a cui eravamo abituati precedentemente.
(iv) Visual misinformation on Facebook (Yunkang Yang et al., Journal of Communication, 28 febbraio 2023). Non mancano, ogni settimana, articoli scientifici sulla disinformazione online. Segnalo questo perché é tra i pochi che si concentrano sulle immagini e non sui testi. Analizzare le immagini è più complicato dal punto di vista metodologico, ma, in effetti, molti contenuti sui social media - forse la maggior parte - sono visuali, quindi abbiamo bisogno di sforzi in questa direzione. Il risultato che il 20% delle immagini contenga disinformazione sembra, invece, essere un po’ sovrastimato, e potrebbe essere dovuto ad alcune scelte di costruzione del campione.
(v) The Waluigi effect (Cleo Nardo, Less Wrong, 3 marzo 2023). Un altro lungo articolo, questo su alcuni “comportamenti” dei LLMs, large language models (avete provato vero? E’ successo tutto mentre “5 link” non c’era…). L’idea sembra, in sintesi, che addestrare una intelligenza artificiale per un comportamento X, finisca per addestrarla anche per l’opposto, un po’ come quando ci viene detto di “non pensare ad un elefante rosa”. L’articolo mischia riferimenti a Jung, Derrida, e, naturalmente, al problema dell'allineamento in intelligenza artificiale. Non capisco onestamente se sia profondo o dica in modo complicato qualcosa di ovvio, ma abbiamo comprato una Nintendo Switch a mia figlia per il compleanno, e non mi perderei per nulla al mondo la possibilità di menzionare Waluigi.