Nell’eterna lotta per combattere i comportamenti tossici sui videogiochi, Modern Warfare 3 si appresta a testare uno dei primi strumenti per moderarli, in grado di sfruttare un modello di intelligenza artificiale per rivelare e segnalare a chi di dovere, tutti i comportamenti che vanno contro il codice di condotta presente su Call of Duty.
Tale modello si chiama ToxMod di Modulate ed è stato lanciato in fase di testing in Nord America sulla chat vocale supportato solo nella lingua inglese sui titoli cod attuali di MW2 e Warzone 2, ma l’obiettivo è di renderlo disponibile su Modern Warfare 3 sin dal lancio, con a disposizione molte più lingue grazie alle quali lo strumento sarà in grado di valutare se i comportamenti degli utenti rispetteranno il regolamento.
Tale modello AI andrà ad aggiungersi al già presente filtro del testo basato attualmente su 14 lingue e al sistema di segnalazioni interno al gioco come mezzo per contrastare i comportamenti sbagliati, per cercare di offrire ai futuri utenti di Modern Warfare 3, uno degli ambienti più puliti degli ultimi anni. Purtroppo come sappiamo, fanno parte delle community dei vari giochi online numerosi giocatori non in grado di mettere un freno alle proprie parole e anche i vari titoli Call of Duty non sono privi di questo tipo di utenti, ma forse l’introduzione di questo tipo di controlli potrebbe far aumentare i blocchi chat e i ban, portando a un ambiente più sereno in un numero maggiore di partite.
Come funzionerà la nuova chat vocale di Modern Warfare 3
Secondo quanto è stato condiviso dagli sviluppatori, questo rilevamento dei comportamenti degli utenti tramite la chat vocale su Modern Warfare 3 avrà il solo scopo di moderarla, inviando periodicamente dei rapporti al team di supporto, i quali dovranno poi valutare l’effettiva molestia ed eventualmente punire il giocatore, oppure migliorare l’AI che comunque sarà in continuo apprendimento anche in corso d’opera per migliorare sempre di più la sua efficacia e la sua affidabilità.
Non saranno tollerati bullismo, molestie, comportamenti tossici suddivisi anche per gravità delle parole, discorsi incentrati sull’odio, sessismo, discriminazione, razzismo e altri tipi di linguaggi non consentiti dal codice di condotta che sarà presente anche su Modern Warfare 3. L’AI rivelerà anche i toni di voce, applicando una severità maggiore nella segnalazione del comportamento molesto nel caso in cui le parole vengano indirizzate nei confronti di un utente più giovane, questo se la loro voce viene identificata dalla stessa intelligenza artificiale, al fine di proteggere la loro incolumità.
Non ci sarà spazio per questo tipo di comportamenti, ma l’ultima parola non sarà di ToxMod ma di Activision stessa, la quale riceverà la segnalazione dallo strumento e solo in seguito applicherà eventuali sanzioni, rendendo dunque la segnalazione non istantanea. Saranno consentiti piccoli sfottò e battute a sfondo amichevole, ma qualora si decidesse di non voler essere registrati, cosa che nelle FAQ viene sottolineato sarà fatto solo allo scopo di moderazione, sarà comunque possibile disabilitare la chat vocale per intero all’interno di Modern Warfare 3.