I link della settimana (#44)
(i) Algorithmic indifference: The dearth of news recommendations on TikTok (Nick Hagar et al, New Media and Society, 30 Agosto 2023). Vedo solo ora questo articolo che spiega come, semplificando un po’, l’algoritmo di TikTok eviti di proporre news agli utenti, anche se interessati. Insomma, se voi guardate, mettiamo, musica jazz, l’algoritmo vi proporrà molti video di musica jazz (da questo esempio è probabilmente chiaro che non sono un frequentatore…), ma se guardate news? Non tanto. Una ragione potrebbe essere - questa è la mia opinione (condivisa anche da altri) - che, date varie restrizioni di governi sulla circolazione di “fake news” e simili, una strategia è evitare il più possibile le news in genere. Questa sarebbe un’altra conseguenza negativa del panico morale sulla disinformazione online.
(ii) False claims on Israel-Hamas war mushroom online, put focus on Musk's X (Sheila Dang and Riniki Sanyal, Reuters, 11 Ottobre 2023). E, a questo proposito, un articolo che commenta in modo bilanciato la diffusione della disinformazione sui social media seguita all’attacco terroristico di Hamas. Thierry Breton dalla Comunità Europea ha avvertito Elon Musk che X viene usato per diffondere disinformazione e che devono essere presi dei provvedimenti. Io non ho molte simpatie per Elon Musk, ma come è possibile controllare, in tempo reale, dopo un attacco terroristico a sorpresa, con migliaia di video diffusi, che non ci sia disinformazione? Inoltre: potrebbero fare questo lavoro i giornalisti, invece di rilanciare, come spesso accade, informazioni false o dubbie? Quello che possiamo fare - e che più o meno viene fatto - è che la disinformazione venga scoperta e così segnalata dagli altri utenti. Altrimenti, come suggerisce il link precedente, ai social media conviene dedicarsi ad altro, ma questo sarebbe ancora più pericoloso.
(iii) Simulating Social Media Using Large Language Models to Evaluate Alternative News Feed Algorithms (Petter Törnberg et al., ArXiv preprints, 5 Ottobre 2023). Un problema degli studi suoi social media è che i ricercatori non possono, in generale, manipolare gli algoritmi e vedere che conseguenze ottengono, o lo possono fare in situazioni controllate sperimentali, ma in questo caso è difficile che i partecipanti si comportino come si comporterebbero in un vero social media. Questo preprint propone un’alternativa, utilizzando una popolazione di agenti basati su Large Language Models, con differenti caratteristiche demografiche e psicologiche. I partecipanti umani sono superflui? (Direi: dipende - in casi come questo ci sono ottime possibilità.)
(iv) Controlled experiment finds no detectable citation bump from Twitter promotion (Trevor A. Branch et al, bioRxiv preprints, 10 Settembre 2023). Alcune ricerche negli anni scorsi avevano trovato che postare un articolo su twitter ne aumentava il numero di citazioni (fornendo un’ulteriore giustificazione ad accademici vari - incluso lo scrivente - per perdere tempo sui social media). Secondo questo preprint queste ricerche non avrebbero tenuto conto dell’importanza intrinseca degli articoli: un articolo importante verrà sia menzionato spesso su twitter che citato, senza che ci sia un legame diretto tra le due cose. Usando un controllo sperimentale, ossia selezionando in modo casuale cinque articoli pubblicati nello stesso mese e nello stesso giornale e twittandone uno in modo casuale mantenendo gli altri come controllo, per tre anni, questa ricerca sembra suggerire che non ci sia alcun effetto. Dobbiamo trovare altre scuse.
(v) Per finire, se conoscete qualcuno che voglia lavorare con me, proprio su questi temi, qui ci sono un po’ id informazioni!