Da un paio di giorni sui social si è sviluppata un’intensa discussione attorno ad un caso che chiama in ballo concetti e temi come la verità, il giornalismo, l’intelligenza artificiale e il suo uso politico.
Tutto nasce da un post di Luca Bottura, giornalista e autore satirico che, con il supporto di un tecnico, ha elaborato con l’AI e pubblicato un video deepfake in cui lo storico Alessandro Barbero dice cose che non ha mai detto a proposito della guerra.
Solo alla fine del video, che dura quasi 4 minuti, cioè molto oltre la soglia di attenzione media degli utenti social, appare per qualche secondo una scritta che dichiara appunto che il video non è reale, ma frutto di intelligenza artificiale e l’autore si rammarica perché Barbero non ha mai detto quelle parole.
Il deepfake su Barbero: cosa Bottura fa dire allo storico
Il video deepfake ideato da Bottura è tutta un’allegoria della guerra in Ucraina, dove al posto dell’Ucraina c’è l’Alto Adige e al posto della Russia c’è l’Austria.
Lo scopo dell’autore è quello di dimostrare, attraverso l’autorevolezza di Barbero (che però non ha mai pronunciato quelle parole), che se quello che è accaduto all’Ucraina fosse accaduto all’Italia, molte persone oggi avrebbero un’idea diversa.
In una successiva precisazione, Bottura esplicita di non condividere le posizioni espresse dallo storico nella vita reale, in particolare l’intervento registrato e proiettato alla manifestazione contro il riarmo del M5S a Roma lo scorso 5 aprile.
Sotto al video deepfake pubblicato sui social si è sviluppato un lungo dibattito a cui prendono parte diverse personalità tra giornalisti, fact-checker, politici e altri utenti tra quelli a cui è consentito commentare.
A prevalere sono i commenti allarmati perché l’operazione, per come è stata fatta, presenta tratti discutibili. Qualcuno ha ricordato che una cosa simile fu fatta da Striscia la Notizia e dalla “satira”/propaganda di destra su Matteo Renzi. Alcuni giornalisti sottolineano come i deepfake siano un problema serio, che oltre a minare la professione giornalistica stessa, compromettono la democrazia, depistando un pubblico assai sguarnito di strumenti, dalla possibilità di capire cosa è reale e cosa non lo è.
Altri suggeriscono che la falsità del video andava dichiarata in premessa, e non velocemente alla fine, anche a costo di perdere l’effetto spaesamento nel vedere Barbero pronunciare quelle parole. Un’utente afferma che, come funziona con la pubblicità, la natura falsa del video dovrebbe essere indicata da un marcatore durante tutta la durata, aspetto che coglie un elemento che vedremo fra poco.
L’autore, sia nei commenti che in un post successivo, rivendica l’operazione affermando che si tratta di satira, sottolineando alla fine dei quattro minuti del video appare una scritta che esplicita si tratti di un falso e di fatto ignorando le osservazioni di chi ravvisa problemi non tanto sull’operazione in sè, ma su come sia stata realizzata.
Qualcuno sostiene che, fatta così, l’operazione non è ascrivibile alla satira, ma alla propaganda.
La satira e i suoi tratti distintivi: un dibattito inconcluso
Può lo scudo dalla satira giustificare qualunque operazione? Il tema è ciclicamente oggetto di discussione che molto probabilmente non giungerà mai a una sintesi.
Le posizioni, grosso modo, si dividono in due: i sostenitori della satira senza confini né limiti e coloro che avrebbero la pretesa di stabilire la soglia oltre la quale la satira non possa spingersi.
Un quesito semplicemente insolubile se non si parte dalla definizione stessa di satira, sulle sue caratteristiche, sui suoi meccanismi tipici, sui suoi bersagli e sullo scopo per cui viene prodotta. Nel caso specifico, alcuni utenti hanno contestato a Bottura la definizione di satira per il video deepfake, per il semplice fatto che, guardando in video, non appaiono elementi che puntino a scatenare una risata.
Un’analisi del deepfake di Bottura e una riflessione sulla satira è stata fatta da Michele David, ex redattore di Radio Fujiko, che si concentra su il concetto di “satira” e di “mezzo”.
«La tecnica dell’imitazione – scrive David – si basa da sempre su un patto implicito tra autore e spettatore: tu fai finta che quello sia Andreotti, Bersani, Schlein, etc, io gli faccio dire cose assurde, tu ridi (se son bravo). È una sospensione dell’incredulità a fini comici. Lo stesso vale per la fotoritocco: se vedi Prodi sul corpo di un pugile durante i giorni “della ciocca”, questo concetto lo cogli al volo. Il video in questione invece rompe questo patto: prende la faccia di Barbero, gli mette in bocca un discorso serio che rappresenta l’opinione dell’autore, giusta o sbagliata e lo spaccia per satira. Ma non è satira: è una mossa retorica fatta usando il volto (e l’autorevolezza percepita) di qualcun altro. La scritta finale, minuscola e in un secondo di cartello, serve solo come scappatoia legale in caso di denuncia».
David prosegue: «La satira vera ha bisogno di iperboli, di paradossi. Se, ad esempio, avesse fatto dire a Barbero che la carbonara sarebbe stata diversa se ci avessero invaso gli austriaci, allora sì, ci sarebbe stata una qualche forma di satira. Perché la regola del “io ci credo per gioco, però tu mi fai ridere” sarebbe stata rispettata. Se a questa equazione togli uno dei due fattori (soprattutto il primo “io ci credo per gioco”), diventa un pericoloso gioco di specchi e illusioni».
L’uso politico dei deepfake: i precedenti nelle campagne elettorali
Il 10 ottobre 2023 pubblicammo un articolo intitolato “I deepfake irrompono nelle campagne elettorali: l’intelligenza artificiale come arma politica?”. Il pezzo nasceva da un approfondimento dell’Osservatorio sull’Intelligenza Artificiale dell’Ansa che riportava alcuni casi in cui l’intelligenza artificiale generativa, e in particolare i deepfake, era stata utilizzata in modo fraudolento nel tentativo di condizionare l’opinione pubblica all’interno di alcune campagne elettorali.
Alessio Jacona, giornalista e curatore dell’Osservatorio per Ansa, riportava due casi europei quello della Slovacchia e quello della Gran Bretagna.
In particolare, il 29 settembre 2023, a 48 ore dalle elezioni in Slovacchia, in pieno silenzio elettorale, su Facebook iniziò a circolare un video deepfake in cui si sentiva Michal Šimečka, leader del partito liberale Slovacchia Progressista, raccontare come intendesse truccare le elezioni. I risultati del voto successivo consacrarono l’avversario di Šimečka, il filorusso Robert Fico.
Nell’ottobre 2023, invece, Jacona riportò quanto accaduto in Gran Bretagna, dove il leader del partito laburista Keir Starmer stava lanciando la campagna elettorale per le elezioni che si sarebbero svolte alla fine dell’anno successivo. Per la prima volta dopo molto tempo il Labour Party era in vantaggio di 20 punti sui Tories. È in quei momenti che su X, l’ex Twitter, iniziò a circolare un audio, rivelatosi poi un deepfake, in cui si sentiva Starmer imprecare contro il suo staff.
«Il rischio – disse Jacona ai nostri microfoni – è che non si possa più credere a ciò che si vede. Questi casi spesso diventano virali, quindi possiamo dire che avranno un’influenza, anche se è difficile quantificarla, ma qualcosa fanno».
Il giornalista già nel 2023 sottolineava che allo studio ci sono contromisure legislative che tentano di contrastare questi fenomeni, ma la velocità delle nuove tecnologie rischia di ridurre questi tentativi come «il cercare di fermare le onde con le mani».
Il giornalismo, l’intelligenza artificiale e i deepfake
Nella vicenda che ha visto protagonista Luca Bottura diverse persone sono rimaste interdette dalla leggerezza con cui l’autore abbia utilizzato uno strumento pericoloso come i deepfake realizzati dall’intelligenza artificiale generativa.
Bottura, infatti, non è un “semplice” autore satirico, ma è anche un giornalista professionista, iscritto all’Ordine dal 1990. La professione, in particolare anche attraverso l’introduzione dell’obbligo di formazione continua, richiede una conoscenza e un rispetto dei codici deontologici e afferma, attraverso il Testo Unico dei doveri del giornalista, che sia obbligo inderogabile di chi svolge la professione “il rispetto della verità sostanziale dei fatti”. Nel caso della satira ovviamente il discorso cambia, ma con le premesse della sua riconoscibilità.
L’Ordine dei giornalisti, sul suo sito, presenta numerosi approfondimenti sul tema dell’intelligenza artificiale applicata al giornalismo stesso.
In una lunga analisi curata dall’avvocata Deborah Bianchi e intitolata “Giornalismo e intelligenza artificiale: aspetti giuridici e normativi” si ricostruisce anche la legislazione specifica che diversi Paesi del mondo hanno messo in campo o stanno elaborando a proposito dei deepfake, come l’AI Act europeo.
Nello specifico, l’AI Act europeo interviene proprio sul caso in questione, cioè quello concernente la satira. In particolare, si affronta il caso di “quando il contenuto fa parte di un’opera o di un programma manifestamente creativo, satirico, artistico, fittizio, o analogo fatte salve le tutele adeguate per i diritti e le libertà dei terzi. In tali casi, l’obbligo di trasparenza per i deep fake di cui al presente regolamento si limita alla rivelazione dell’esistenza di tali contenuti generati o manipolati in modo adeguato che non ostacoli l’esposizione o il godimento dell’opera, compresi il suo normale sfruttamento e utilizzo, mantenendo nel contempo l’utilità e la qualità dell’opera”.
Il video deepfake di Bottura è sul confine di questa casistica, poiché è vero che dichiara la sua natura falsa, ma solamente alla fine per non ostacolare “il godimento dell’opera” citato dall’AI Act. Tuttavia la discussione che si è sviluppata in questi giorni si concentra sul carattere “manifestamente satirico” del video, dal momento che, fino alla scritta finale, il tenore del video è completamente serio.
Nell’approfondimento sul sito dell’Ordine dei giornalisti, in particolare, si riporta come l’AI Act, una volta entrato in vigore, prevederà per determinati tipi di contenuti una marcatura e un’etichettatura proprio ai fini di contrastare la disinformazione. In altre parole, occorrerà “marchiare” il prodotto realizzato con l’intelligenza artificiale per rendere consapevole il pubblico di cosa sta usufruendo.