Era il 2016 quando una nuova tecnologia si affacciava nel sociale con implicazioni piuttosto preoccupanti. Si trattava di uno studio sperimentale attraverso il quale un gruppo di ricercatori era riuscito ad alterare, in tempo reale, le espressioni facciali registrate di un attore a partire dalle espressioni generate da un secondo attore. In pratica si prende una intervista o un discorso videoregistrato di un politico e, attraverso la procedura computazionale sperimentata, è possibile cambiare le espressioni originali dell'attore bersaglio a partire dalle espressioni di un secondo attore che, in modalità nascosta, esprime determinate altre espressioni. Il risultato era sconcertante perché consentiva, per così dire, di "iniettare" micro-espressioni facciali nel corso della visione di una intervista con la possibilità quindi di alterare/pilotare (anche a livello non cosciente) l'effetto comunicativo di un discorso. Lascio immaginare la potenza e la pericolosità di una tale tecnologia in una epoca come la nostra dove i processi di generazione di senso e significato si sono fortemente spostati verso dinamiche visuali (tutto nei social viaggia su coordinate visuali prima ancora che testuali).
A questa tecnologia, già di per sé potentissima, si aggiunge oggi VALL-E creata da Microsoft (arxiv.org/pdf/2301.02111.pdf), in grado di catturare il timbro e le sfumature emotive della voce originale di un interlocutore per riprodurlo artificialmente.
In sostanza è oggi facilissimo generare identità artificiali attraverso le quali veicolare senso e significato in modo strategico e manipolativo.
niessnerlab.org/projects/thies

Sign in to participate in the conversation
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.