Microsoft vede un altro grande aumento nella moderazione di Xbox e nell’applicazione della sicurezza

Microsoft vede un altro grande aumento nella moderazione di Xbox e nell’applicazione della sicurezza

Microsoft ha pubblicato il suo ultimo Rapporto sulla trasparenza di Xbox , descrivendo in dettaglio le azioni di controllo intraprese per mantenere più sicura la comunità online di Xbox. Il rapporto completo, in formato PDF , mostra che da gennaio a giugno 2023 Microsoft ha emesso un totale di 19,56 milioni di misure di moderazione e sicurezza. Si tratta di quasi il doppio rispetto ai 10,19 milioni di controlli emessi da luglio a dicembre 2022.

Rapporto sulla trasparenza di Xbox

Come nei rapporti precedenti, la stragrande maggioranza delle misure adottate sono state etichettate come “proattive”, il che significa che la tecnologia di Microsoft potrebbe bloccare i contenuti offensivi prima che possano raggiungere i giocatori Xbox. Nel riepilogo del rapporto di Microsoft, si afferma:

Per misurare meglio il nostro successo, ora includiamo un nuovo set di dati che copre il nostro lavoro in questo spazio chiamato “Toxicity Prevented”. In quest’ultimo periodo, oltre 4,7 milioni di contenuti sono stati bloccati prima di raggiungere i giocatori, incluso un aumento di 135.000 (+39% rispetto all’ultimo periodo) delle immagini grazie agli investimenti nell’utilizzo del nuovo modello di base Turing Bletchley v3.

La stragrande maggioranza delle sanzioni emesse durante gli ultimi sei mesi erano dovute a trucchi o account Xbox falsi.

Nell’ultimo anno Microsoft ha aggiunto nuove funzionalità e perfezionato il proprio sistema di applicazione delle norme Xbox. A giugno, ha annunciato un nuovo sistema progettato per rendere più semplice per i giocatori Xbox registrare quelle che ritiene siano chat vocali offensive e inviarle al team di sicurezza dell’azienda.

Ad agosto, Microsoft ha annunciato un Xbox Enforcement Strike System rinnovato . Aggiunge avvertimenti ai giocatori Xbox quando vengono segnalati per violazioni al sistema di sicurezza e moderazione dell’azienda. Se un giocatore riceve abbastanza avvertimenti sul proprio account, potrebbe dover affrontare sospensioni estese fino a un anno sul servizio Xbox. Oggi Microsoft ha dichiarato:

Le prime intuizioni indicano che la maggior parte dei giocatori non viola gli standard della comunità dopo aver ricevuto un’applicazione e si impegna positivamente con la comunità.

Microsoft ha inoltre lanciato Xbox Gaming Safety Toolkit per Giappone e Singapore per fornire ai genitori maggiori informazioni e indicazioni su come proteggere i propri figli quando giocano online sul servizio Xbox.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *