I moderatori di TikTok si lamentano dei contenuti che devono guardare come parte della formazione

I moderatori di TikTok si lamentano dei contenuti che devono guardare come parte della formazione

I moderatori di TikTok guardano contenuti erotici per minorenni durante l’allenamento

Il tema dei moderatori di TikTok è stato sollevato da Forbes, che ha ricevuto informazioni da ex dipendenti di una società esterna responsabile della moderazione dei contenuti per uno dei social network più popolari.

TikTok, in quanto applicazione che consiste nel pubblicare brevi video (fino a 3 minuti), è un luogo che dovrebbe essere fortemente controllato nel contesto di ciò che appare sui profili utente. È per questo motivo che TikTok ha stretto una partnership con una società esterna, Teleperformance, che è responsabile della supervisione dei contenuti pubblicati.

Ho una figlia e non credo sia normale. Non dovrebbero (a cura di TikTok) usare qualcosa del genere per la formazione, afferma un ex dipendente di Teleperformance.

Come si è scoperto, i dipendenti di Teleperformance hanno accesso a una tabella speciale che contiene un enorme database di contenuti erotici (foto) che utilizzano bambini. Questo dovrebbe servire come una sorta di materiale didattico. Daily Required Reading (DDR), come lo chiama l’azienda, è un database di centinaia di materiali a cui hanno accesso centinaia di dipendenti, sia dipendenti TikTok che dipendenti Teleperformance.

Sono disponibili “tutorial”, ma l’azienda è riluttante a commentarli

Gli stessi dipendenti dell’azienda responsabile della moderazione dei contenuti su TikTok affermano che “se i genitori sapessero di questi materiali, brucerebbero sicuramente TikTok”. Tuttavia, il direttore della fiducia e della sicurezza di Teleperformance afferma che “l’azienda non utilizza video espliciti di abusi sui minori durante la formazione o li memorizza nei suoi strumenti di calibrazione”.

Tuttavia, questo è tutto ciò che Teleperformance ha da dire sugli abusi sessuali sui minori in un’intervista a Forbes. Ad altre domande è stata negata la risposta e nel complesso la società era bavosa. Non si sa nemmeno cosa siano esattamente e cosa contengano questi strumenti di calibrazione.

Verranno formati i dipendenti e l’intelligenza artificiale

Naturalmente, nell’era dei social network, dove gli utenti pubblicano milioni di post al giorno, è necessario utilizzare l’intelligenza artificiale. La capacità di elaborare le persone potrebbe non essere sufficiente per moderare rapidamente i contenuti in corso.

La situazione è completamente diversa nel caso dell’intelligenza artificiale. I computer possono riconoscere le foto che sono contro la legge e le regole della piattaforma. Tuttavia, per questo hanno bisogno di materiali comparativi – contenuti che mostrino al programma cosa è male e cosa è buono.

Tuttavia, con tutto questo, la vittima rimane una persona che, a differenza di un computer, ha morale ed emozioni. Pertanto, il contatto con contenuti così estremamente pericolosi per la psiche umana può diventare oggetto di molte discussioni. È inoltre discutibile se, nel caso dei materiali raccolti da Teleperformance (per lo più contenuti caricati dagli utenti), sia ragionevole lasciare l’accesso a centinaia di dipendenti.

Fonte: Forbes

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *