TikTok afferma di aver rimosso 104 milioni di video nel primo semestre 2020

Mentre il futuro della proprietà TikTok di ByteDance continua a essere martellato tra leviatani tecnologici, investitori e funzionari governativi nelle sale riunioni, l'app video ha pubblicato oggi il suo ultimo rapporto sulla trasparenza . In tutto, sono stati rimossi oltre 104,5 milioni di video; ha avuto quasi 1.800 richieste legali; e ha ricevuto 10.600 notifiche di rimozione per violazione del copyright per la prima metà di quest'anno.
Oltre a ciò, e forse per compensare l'elevato numero di video illeciti e anche per coincidere con un'apparizione oggi davanti a una commissione parlamentare nel Regno Unito  su contenuti dannosi, TikTok ha anche  annunciato una nuova iniziativa - potenzialmente in collaborazione con altre app social - contro contenuto dannoso.
Le cifre nel rapporto sulla trasparenza sottolineano una seconda trama sulla popolare app: il governo potrebbe voler chiudere TikTok per problemi di sicurezza nazionale (a meno che ByteDance non trovi una nuova struttura di controllo non cinese che soddisfi i legislatori). Ma in realtà, proprio come altre app di social media, TikTok ha un altro fuoco non insignificante da combattere: è alle prese con molti contenuti illegali e dannosi pubblicati e condivisi sulla sua piattaforma, e mentre continua a crescere in popolarità (ora ha più di 700 milioni di utenti in tutto il mondo), anche questo problema continuerà a crescere.
 
TikTok ha affermato che i 104.543.719 video totali rimossi a livello globale da TikTok per aver violato le linee guida della community oi suoi termini di  servizio costituivano  meno dell'1% di tutti i video caricati su TikTok, il che ti dà un'idea della vastità del servizio.




TikTok ha  affermato che il 96,4% del numero totale è stato rimosso prima di essere segnalato, con il 90,3% rimosso prima di ricevere qualsiasi visualizzazione. Non specifica se questi sono stati trovati tramite sistemi automatizzati o da moderatori umani, o un mix di entrambi, ma sembra che sia passato alla moderazione basata su algoritmi almeno in alcuni mercati:
"A seguito della pandemia di coronavirus, ci siamo affidati maggiormente alla tecnologia per rilevare e rimuovere automaticamente i contenuti in violazione in mercati come India, Brasile e Pakistan", ha osservato.
L'azienda osserva che la categoria più grande di video rimossi riguardava la nudità degli adulti e le attività sessuali, al 30,9%, con una minore sicurezza al 22,3% e le attività illegali al 19,6%. Altre categorie includevano suicidio e autolesionismo, contenuti violenti, incitamento all'odio e individui pericolosi. (E i video potrebbero contare in più di una categoria, ha osservato.)

Il più grande mercato di origine per i video rimossi è quello in cui TikTok è stato bandito (forse non sorprende): l'India ha fatto la parte del leone dei video a 37.682.924. Gli Stati Uniti, d'altra parte, hanno rappresentato 9.822.996 (9,4%) dei video rimossi, diventando così il secondo mercato più grande.
Attualmente, sembra che la disinformazione e la disinformazione non siano i principali modi in cui TikTok viene abusato, ma sono ancora numeri significativi: circa 41.820 video (meno dello 0,5% di quelli rimossi negli Stati Uniti) hanno violato le politiche di disinformazione e disinformazione di TikTok, la società disse.
Le richieste legali, afferma, sono in aumento, con 1.768 richieste di informazioni sugli utenti da 42 paesi / mercati nei primi sei mesi dell'anno, con 290 (16,4%) provenienti dalle forze dell'ordine statunitensi, di cui 126 citazioni in giudizio, 90 perquisizioni mandati e 6 ordinanze del tribunale. In tutto, aveva 135 richieste da parte di agenzie governative per limitare o rimuovere contenuti da 15 paesi / mercati.
TikTok ha affermato che la coalizione di contenuti dannosi si basa su una proposta che Vanessa Pappas, capo ad interim di TikTok negli Stati Uniti, ha inviato a nove dirigenti di altre piattaforme di social media. Non specifica quale, né quale sia stata la risposta. Chiediamo e aggiorneremo man mano che apprenderemo di più.

Proposta di coalizione sui social media

Nel frattempo, la lettera, pubblicata integralmente da TikTok e ristampata di seguito, sottolinea una risposta al pensiero corrente su come le piattaforme di social media siano state proattive e di successo nel tentativo di limitare alcuni degli abusi delle loro piattaforme. Non è il primo sforzo di questo tipo: ci sono stati molti altri tentativi come questo in cui più aziende, un tempo concorrenti per il coinvolgimento dei consumatori, si uniscono con un fronte unito per affrontare cose come la disinformazione.
Questo in particolare sta identificando contenuti non politici e proponendo un "approccio collaborativo all'identificazione e alla notifica precoci tra i partecipanti al settore di contenuti grafici estremamente violenti, incluso il suicidio". Il MOU proposto da Pappas ha suggerito che le piattaforme di social media comunichino per tenersi informati a vicenda del contenuto: una mossa intelligente, considerando quanto viene condiviso su più piattaforme, da altre piattaforme.
Gli sforzi dell'azienda sulla coalizione dei contenuti dannosi sono un altro esempio di come le società di social media stiano cercando di prendere la propria iniziativa e dimostrare che stanno cercando di essere responsabili, un modo chiave per fare pressione sui governi per evitare di regolamentarli. Con Facebook, Twitter, YouTube e altri continuano a essere nell'acqua calda sui contenuti condivisi sulle loro piattaforme - nonostante i loro tentativi di frenare l'abuso e la manipolazione - è improbabile che questa sarà l'ultima parola su tutto ciò.