No alla Violenza

DEDALOMULTIMEDIA

Lunedì, 05 Dicembre 2022

1000X200px SUPERSTORE IPERSTORE 6 15 DICEMBRE 

Con il termine deepfake, dall’inglese deep learning e fake media, si fa riferimento a foto, video e audio creati grazie a software di intelligenza artificiale (AI) che, partendo da contenuti reali (immagini e audio), riescono a modificare o a ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce.4402946 18298

Il loro utilizzo, specie nelle campagne informative, può ingenerare sentimenti di sfiducia su ciò che si vede o si sente causando, in tal modo, una cattiva informazione anche attraverso la diffusione di “fake news” con la conseguente possibilità di manipolare l’opinione pubblica.

Ma non solo, l’uso dei deepfake può anche portare alla distruzione dell’immagine o della credibilità di un soggetto; o a molestie ed umiliazioni online; o ancora all’incitamento ad atti di violenza nei confronti delle minoranze; alla facilitazione di reati informatici quali frodi ed estorsioni; al supporto di gruppi estremistici o terroristici; ecc.

Un altro risultato dei deepfake, molto considerevole, riguarda l’effetto che generano sulle persone facendo venir meno la loro fiducia nei confronti dell’autorità e nei mezzi di comunicazione e di informazione.

Tuttavia, nonostante questi lati negativi, i deepfake hanno vita breve.

Infatti, generalmente i contenuti falsi vengono segnalati entro brevi periodi, pur potendo causare, in questo breve lasso di tempo, conseguenze emozionali sulla popolazione produttivi di comportamenti scomposti, essendo strumenti cruciali in tutte quelle situazioni in cui viene richiesta una risposta emotiva immediata o in quelle circostanze in cui il fattore tempo è fondamentale per la riuscita dello scopo per cui sono diffusi.

Purtroppo, però, man mano che la tecnica di costruzione di deepfake diventerà più fruibile al pubblico, senza richiedere particolari abilità tecniche ed informatiche, gli stessi potrebbero diventare un mezzo di attacco più efficace e molto più utilizzato.

Occorre, pertanto, stare sempre all’erta e verificare sempre le fonti da cui riceviamo le notizie e/o le comunicazioni, proprio per evitare di incorrere in errore o in situazioni spiacevoli.

Carmela Mazza

Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.

 

 

Photo Credit: <a href="https://www.freepik.com/free-vector/technology-artifical-intelligence-background-with-face_4402946.htm#query=virtual%20face&position=11&from_view=keyword">Image by starline</a> on Freepik

Commenti offerti da CComment