ASCOLTA L’ARTICOLO QUI

«Vi svegliate con una telefonata nel cuore della notte. Dall’altro capo del telefono sentite una voce familiare: quella di vostra madre, che si lamenta e ripete le parole “Non posso farlo, non posso farlo”. Poi entra in linea un’altra voce, mai sentita prima, che dice: “Non chiamerai la polizia. Non lo dirai a nessuno. Ho una pistola puntata alla testa di tua madre e le sparerò se non farai esattamente quello che ti dico”. Una coppia di Brooklyn ha ricevuto una telefonata da parenti tenuti in ostaggio e ha pagato rapidamente un riscatto, ma le loro voci erano state clonate con un software basato sull’intelligenza artificiale in grado di clonare la voce di chiunque e fargli dire qualsiasi cosa.» (New Yorker Daily, 7 marzo 2024)

Trovo agghiacciante questo episodio avvenuto la scorsa settimana, non solo per la violenza dell’estorsione, ma soprattutto per la possibilità -grazie all’intelligenza artificiale- di “clonare la voce di chiunque e fargli dire qualsiasi cosa”. Questa applicazione completa l’inquietante prospettiva dei “deepfake”, cioè foto e video che, partendo da contenuti reali (immagini e audio), consentono di modificare o ricreare, in modo estremamente realistico e molto difficilmente smentibile, le caratteristiche e i movimenti del volto o del corpo di chiunque situandole in qualsiasi contesto.

Abbiamo forse sorriso -giusto un anno fa- quando apparve una curiosa foto di papa Francesco che indossava un vistoso piumino bianco; sembrava solo un simpatico fotomontaggio, ma era un deepfake creato dall’intelligenza artificiale come molti altri utilizzati ora con successo anche nell’attuale campagna elettorale per le presidenziali degli Stati Uniti (non sembra vera -ad esempio- la foto di Donald Trump circondato da sorridenti ragazze e ragazzi afroamericani creata per favorire il consenso di quella parte di elettori?)

Non ci sono limiti all’uso manipolatorio di questo strumento di falsificazione della realtà oggettiva, ma la conseguenza più grave è la progressiva convinzione che il nostro vedere le immagini e sentire le voci possa non essere più attendibile. Che rilevanza potranno mai avere le notizie “documentate” dalle immagini e dalle voci che ci vengono riportate dai media se potrebbero essere state create ad arte? Potremmo vedere “fatti” mai avvenuti, ascoltare persone influenti -leader politici, religiosi, culturali- dire parole mai pronunciate… e -anche se fosse possibile dimostrarne successivamente la manipolazione- sappiamo bene quanto gli effetti sulla pubblica opinione possano essere immediatamente devastanti.

E quando non potremo più fidarci di immagini, registrazioni, intercettazioni, testimonianze e dichiarazioni cosa succederà nei tribunali, nelle consultazioni elettorali, nella formazione delle nostre convinzioni? Se non ci sarà più possibile distinguere il vero dal falso, come potremo farci una opinione fondata? Ognuno deciderà ciò che ritiene vero senza nessuna possibilità di essere smentito o di smentire le altrui verità? Potremo fidarci solo di ciò che sperimentiamo direttamente e personalmente, ma non potremo raccontarlo “documentandolo” per essere creduti. Se si eclissa l’oggettività non solo il falso potrà essere rappresentato come vero, ma -conseguenza ancor più grave!- il vero potrà sempre essere sospettato di essere falso.

Spero di aver viaggiato troppo nell’immaginare le conseguenze dei deepfake, di aver esagerato nella capacità tecnica di produrre “falsi” e di aver invece sottovalutato la possibilità di poterli riconoscere e smentire… mi resta però un’inquietudine di fondo e la convinzione che sia sempre più importante scegliere bene le fonti di cui potersi fidare e diffidare delle evidenze troppo clamorose.

Nel frattempo, se doveste vedere foto nelle quali sto decapitando qualcuno o ascoltare registrazioni nelle quali affermo che la politica migliore sia scegliere un buon dittatore e preoccuparsi poi ognuno dei fatti propri… vi prego di non crederci.