Quando il Presidente della Camera dei rappresentanti Nancy Pelosi è apparsa in un video alterato che ha attaccato la sua credibilità, le sue parole suonavano discontinue e confuse. Ma è la reazione di Facebook, Twitter e YouTube, che ha alimentato la diffusione del video a scatenare il disaccordo sul modo in cui le aziende tecnologiche dovrebbero gestire i contenuti manipolati.
Il 22 maggio, una pagina Facebook denominata Politics WatchDog ha pubblicato il video, che è stato rallentato per dare l’impressione che la legislatrice californiana stesse biascicando le sue parole. Il video si è rapidamente diffuso su tutti e tre i social network. In un primo assaggio delle sfide che potevano affrontare durante le elezioni del 2020 negli Stati Uniti, ognuno ha avuto una reazione diversa: Facebook ha permesso al video di rimanere al suo posto, ma ha mostrato gli articoli dei ricercatori che hanno verificato i fatti. YouTube l’ha eliminato, mentre Twitter ha lasciato che rimanesse sulla sua piattaforma.
Le diverse risposte sottolineano la sfida che i video manipolati, e più in generale la disinformazione, pongono alle aziende. I social network hanno regole contro la pubblicazione di informazioni intenzionalmente fuorvianti, ma cercano anche di incoraggiare la libertà di espressione. Trovare un equilibrio – in particolare quando quella che promette di essere una stagione elettorale particolarmente pesante si scalda – si sta rivelando difficile.
Per giovedì prossimo è prevista una riunione dello House Intelligence Committee allo scopo di tenere un’audizione sui media manipolati e sul fenomeno dei “deepfakes”, una tecnica che utilizza l’intelligenza artificiale per creare video di persone che fanno o dicono qualcosa che non hanno fatto. Il video di Pelosi, una forma più semplice di montaggio video che alcuni spettatori pensavano fosse reale, non è considerato un deepfake, ma probabilmente sarà uno dei temi affrontati nella discussione.