Youtube ha sempre utilizzato un mix di revisori umani e tecnologie per trovare contenuti che violavano le norme sulla piattaforma di videosharing e nel 2017 Google ha iniziato ad applicare una tecnologia di apprendimento automatico più avanzata in grado di contrassegnare automaticamente i contenuti da poi far revisionare a team ‘umani’. Questa combinazione di tecnologia di revisione intelligente dei video e revisori umani qualificati ha permesso alla società di applicare coerentemente le proprie politiche con sempre maggiore rapidità. Il team di Youtube, come parte della propria mission di affrontare la sfida di rimuovere rapidamente contenuti che violano le Norme della community e di riportare i progressi fatti, nello scorso mese di aprile ha iniziato a condividere un rapporto trimestrale sullo stato di applicazione delle norme della community di YouTube. Come parte di questo impegno continuo verso la trasparenza, il 13 dicembre Youtube ha espanso il rapporto per includere ulteriori dati come le rimozioni dei canali, il numero di commenti rimossi e il motivo della politica violata per cui un video o un canale è stato rimosso. Quanto andremo a riportare di seguito è cio’ che è stato riportato nel blog ufficiale d Youtube.
L’impegno di Youtube nel rimuovere contenuti violativi prima che vengano visualizzati.
Trovare tutti i contenuti che violano le norme su YouTube è una grande sfida ma il team di Youtube ritiene che questa sia una delle proprie principali responsabilità ed è concentrato sul continuo lavoro per la rimozione di questi contenuti prima che vengano ampiamente visualizzati. Da luglio a settembre 2018, Youtube ha rimosso 7,8 milioni di video, dei quali l’81% è stato rilevato per la prima volta da una ‘macchina’ (ossia da un algoritmo, non da un revisore umano). Dei video rilevati dalla tecnologia il 74,5% non ha mai ricevuto una singola visione.
Quando viene rilevato un video che vìola le Linee guida di Youtube questo viene rimosso e viene inviato un avvertimento al canale che lo ha pubblicato. Youtube puo’ arrivare a chiudere interi canali se pubblicano troppo spesso contenuti vietati dalle Norme della community o che contengono una singola e grave violazione, come lo sfruttamento sessuale dei minori. La stragrande maggioranza dei tentativi di abuso proviene da utenti che cercano di caricare spam o contenuti per adulti: oltre il 90% dei canali e oltre l’80% dei video rimossi da Youtube nel settembre 2018 sono stati rimossi per violazione delle norme su spam o contenuti per adulti.
Guardando specificamente alle aree più in evidenza, ma a basso volume, come la violenza estrema e la sicurezza dei bambini, l’investimento di Youtube nella lotta a questo tipo di contenuti sta avendo un impatto positivo: oltre il 90% dei video caricati nel settembre 2018 e rimossi per violenza estrema o sicurezza dei bambini aveva meno di 10 visualizzazioni.
Ogni trimestre si potrebbero vedere questi numeri fluttuare. Ad esempio, nell’ultimo anno Youtube ha rafforzato l’applicazione della sicurezza dei bambini, consultando regolarmente esperti per accertarsi che le politiche catturino una vasta gamma di contenuti che potrebbero essere dannosi per i bambini, compresi elementi come i minori che combattono o si scatenano in vizi potenzialmente pericolosi. Di conseguenza, Youtube ha visto che il 10,2% dei video rimossi riguardava la sicurezza dei bambini, mentre il materiale di abuso sessuale di minori (CSAM) rappresenta una frazione della percentuale del contenuto che viene rimosso.
L’impegno di Youtube nel rimuovere commenti spam o offensivi.
Come per i video, Youtube utilizza una combinazione di tecnologia di rilevamento intelligente e revisori umani per segnalare, esaminare e rimuovere spam, incitamento all’odio e altri abusi nei commenti che vengono lasciati sotto ai video. Youtube ha anche creato strumenti che consentono ai creator di moderare i commenti sui loro video. Ad esempio, i creatori possono scegliere di trattenere dalla pubblicazione tutti i commenti per prima sottoporli a propria revisione o di nascondere automaticamente commenti contenenti collegamenti o contenuti offensivi. Oltre un milione di creator ora utilizza questi strumenti per moderare i commenti del proprio canale. Da luglio a settembre 2018, i team di Youtube hanno rimosso oltre 224 milioni di commenti per aver violato le Norme della community della piattaforma. La maggior parte delle rimozioni riguardava lo spam.
"Ci impegniamo a fare in modo che YouTube rimanga una comunità vivace, dove la creatività fiorisce, i creatori indipendenti si guadagnano da vivere e le persone si collegano in tutto il mondo per passioni e interessi condivisi" ha commentato il team di Youtube nel proprio blog. "Ciò significa che saremo risoluti nella nostra lotta contro i cattivi attori sulla nostra piattaforma e nei nostri sforzi per rimuovere contenuti violativi prima che vengano visualizzati. Sappiamo che c’è molto lavoro da fare e continuiamo ad investire in persone e tecnologie per rimuovere rapidamente i contenuti violativi. Non vediamo l’ora di fornirti ulteriori aggiornamenti".