I link della settimana (#42)
(i) AI girlfriends are ruining an entire generation of men (Liberty Vitter, The Hill, 26 settembre 2023). Possiamo aggiungere un nuovo tecno-panico: le “fidanzate virtuali”. Si era già intravisto qualcosa con il film Lei qualche anno fa, ma ora, grazie allo sviluppo dei large language models, alcuni pensano che questa potrebbe diventare una realtà. Per il momento i toni dell’articolo - già del titolo - sembrano quantomeno esagerati, dati quelli che, realisticamente, possono essere gli utilizzi.
(ii) Unpicking The Myth of Social Media Addiction (Isobel Asher Hamilton, The Daily Upside, 10 Settembre 2023). Ne abbiamo già parlato, ma questo è un articolo utile sui problemi di usare un concetto come “dipendenza” quando si parla di social media. Un altro aspetto interessante è che, nella maggior parte dei casi, sono le stesse persone che lavorano nei social media che hanno diffuso questa idea. Ho sempre pensato che i maggiori critici e i maggiori sostenitori finiscano entrambi per incontrasi a commettere lo stesso errore, ossia sopravvalutare (in bene o in male) gli effetti della nostra vita online.
(iii) The puzzle of misinformation: Exposure to unreliable content in the United States is higher among the better informed (Alvin Zhou et al., New Media and Society, 26 Settembre 2023). Ancora sul fatto che la disinformazione online sia un fenomeno complesso, come i suoi possibili effetti. Osservando il comportamento online di 140,000 persone, i ricercatori hanno visto che chi vede più disinformazione vede anche più informazioni in generale, quindi non è chiaro quali siano gli effetti.
(iv) All the President’s Lies: Repeated False Claims and Public Opinion (Raunak M Pillai et al., Public Opinion Quarterly, 15 Settembre 2023). Un’idea molto diffusa è che più un messaggio viene ripetuto, più tendiamo a credere che sia vero. Se continuano a ripeterci che gli elefanti volano, finiremo per crederci. Questa idea ha un chiaro appeal intuitivo (anche tra gli psicologi sociali) ma quanto funziona? Questo articolo l’ha testata utilizzando un maestro della ripetizione di false dichiarazioni, e con un grande pubblico: l’ex-presidente USA Donald Trump. I risultati sono interessanti: i sostenitori di Trump in effetti tendevano a ritenere più vere le affermazioni (false) del presidente più venivano ripetute, ma non c’era nessun effetto per i democratici. Insomma, perché la ripetizione funzioni ci dovete già un po’ credere, il che a me suggerisce che la ripetizione non funzioni di per sé.
(v) Which Humans? (Mohammad Atari et al., PsyArxiv preprint, 22 Settembre 2023). I large language models, come ChatGPT, vengono ormai utilizzati da milioni di persone. Parte del loro successo deriva dal fatto che permettono un’interazione che dà l’impressione di essere “umana”. Le loro risposte sono basate su un’enorme quantità di documenti presi dal web. Siccome questi documenti sono stati per lo più prodotti nelle nazioni occidentali, l’”umanità” dei large language models riflette questa origine: in questo preprint si mostra che le risposte di ChatGPT, in test fatti per misurare la diversità culturale, sono simili a quelle delle popolazioni WEIRD (l’acronimo sta per White, Educated, Industrialized, Rich, and Democratic). Che fare? Forse aumentare la diversità del training set? Ma poi dovranno pure stabilizzarsi in qualche configurazione? Dovremmo avere large language models provenienti da varie parti del mondo con diverse caratteristiche? Chissà.