> External link Facebook Facebook Messenger Full Screen Google+ Instagram LinkedIn News mostra di più Twitter WhatsApp Close
News |

Basta con i video bufala: Twitter segnalerà i deepfake | VIDEO

Twitter propone una nuova policy contro i deepfake. Gli utenti saranno avvertiti se si tratterà di un video, audio o foto bufala. Nel servizio di Matteo Viviani vi abbiamo raccontato dei deepfake, ovvero i video falsi in cui i protagonisti dicono e fanno cose che non hanno mai detto o pensato nemmeno di dire o fare

Twitter dichiara guerra ai deepfake. Gli utenti saranno avvertiti se si tratterà di un video, audio o foto bufala. Nel servizio di Matteo Viviani, che potete vedere qui sopra, vi abbiamo appena parlato proprio dei deepfake, ovvero i video falsi in cui i protagonisti dicono e fanno cose che non hanno mai detto o pensato nemmeno di dire o fare.

Non solo, i video su Twitter potrebbero essere rimossi se considerati minacciosi: "Vogliamo che l'utente abbia un'idea del contesto del contenuto che sta vedendo”, fa sapere Twitter. “Tentativi deliberati di fuorviare o confondere le persone con media manipolati mettono a rischio l'integrità della conversazione”. Riguardo la nuova proposta, Twitter attende feedback dagli utenti fino al 27 novembre.

In politica, i deepfake possono essere usati per diffamare un candidato, facendogli dire e fare cose che non hanno mai detto o fatto. I più diffusi sono i deepfake porno, dei quali vi abbiamo parlato in un secondo servizio (clicca qui per vederlo) e vi abbiamo spiegato come tutti noi possiamo esserne vittime, trovandoci protagonisti e protagoniste di video porno. Stando ad alcune ricerche, il numero dei deepfake nell’ultimo anno è quasi raddoppiato passando dai 7mila video del 2018 agli oltre 14mila del 2019. E il 96% è di tipo pornografico.

 

Ultime News

Vedi tutte