Activision použije AI k moderování mluveného projevu hráčů Call of Duty
Tým pod hlavičkou Call of Duty zabývající se potíráním toxického a rušivého chování ve hře sdílí informace o nejnovější strategii, se kterou se chce vydat do boje proti nevymáchaným ústům hráčů. Nový systém moderování živého chatu využívá technologii ToxMod, která za pomoci AI rozpozná nechtěné výrazy i v mluveném projevu. K aktivaci moderačního systému by mělo dojít 10. listopadu s vydáním Modern Warfare III.
- Activision ukazuje nový systém moderace v Call of Duty
- Bude využívat AI k rozpoznání nevyžádaných výrazů i v mluveném projevu
- Aktivován by měl být od 10. listopadu s vydáním Modern Warfare III
- Testování beta verze systému již probíhá v Modern Warfare II a Warzone
- Prozatím rozpozná pouze anglické výrazy
Activison na stránkách své vlajkové FPS sdílí informace o budoucnosti moderace textového a mluveného projevu hráčů. Ve splupráci s Modulate, společností zabývající se vývojem AI softwaru, hodlá uvést do Call of Duty opatření schopné automaticky rozpoznat nevhodné výrazy i v mluveném projevu.
Technologie jménem ToxMod má být schopna identifikovat toxické projevy, včetně nenávistných či diskriminujících výrazů a nebo obtěžování.
Systém si od 30. srpna prochází beta verzí v Modern Warfare II a Warzone, po jejímž zakončení bude implementován také do Modern Warfare III (vychází 10. listopadu).
V současnosti je kompatibilní pouze s angličtinou, vývojáři ale slibují budoucí podporu i pro jiné jazyky. Pro porovnání je moderace textu v Call of Duty dostupná pro 14 jazyků.
Na základě nahlášení uživatele za pomoci ToxModu bude provinilci nejdříve uděleno napomenutí. Při opakovaném nahlášení může dočasně ztratit přístup k chatu i svému účtu.
Rozhodnutí s největší pravděpodobností vyvolá určité kontroverze. Na jednu stranu by se proti němu mohli vyhradit odpůrci AI, na stranu druhou zastánci svobody projevu v obavách, že systém by mohl být zneužit. Podobné názory se již objevují v některých komunitách hráčů Call of Duty.