Шутери від першої особи, такі як Call of Duty, дещо сумнозвісні через токсичність своїх лобі та голосових чатів. Опитування називають фан-базу цієї франшизи найнегативнішою в індустрії ігор; ворожнеча між двома гравцями одного разу призвела до виклику команди спецпризначенців. Activision роками намагається боротися з такою поведінкою, і частково рішення може бути пов’язане зі штучним інтелектом.
Activision співпрацює з компанією Modulate, щоб впровадити “модерацію голосового чату в грі” у своїх іграх. Нова система модерації, що використовує технологію штучного інтелекту під назвою ToxMod, працюватиме над виявленням такої поведінки, як дискримінація та переслідування в режимі реального часу.
Початкове бета-тестування ToxMod у Північній Америці розпочинається сьогодні. Він активний в Call of Duty: Modern Warfare II та Call of Duty: Warzone. “Повний світовий реліз” (він не включає Азію, як зазначено в пресрелізі) відбудеться 10 листопада з виходом Call of Duty: Modern Warfare III, нової частини франшизи цього року.
Пресреліз Modulate не містить багато деталей про те, як саме працює ToxMod. На сайті компанії зазначається, що інструмент “модерує голосовий чат, щоб позначити погану поведінку, аналізує нюанси кожної розмови, щоб визначити токсичність, і дозволяє модераторам швидко реагувати на кожен інцидент, надаючи релевантний і точний контекст”. У нещодавньому інтерв’ю генеральний директор компанії заявив, що інструмент має на меті вийти за рамки простої транскрипції. Він також враховує такі фактори, як емоції гравця та гучність, щоб відрізнити шкідливі висловлювання від жартівливих.
Варто зазначити, що інструмент (принаймні поки що) не вживатиме заходів проти гравців на основі своїх даних, а лише надсилатиме звіти модераторам Activision. Залучення людини, ймовірно, залишиться важливим запобіжником, оскільки дослідження показали, що системи розпізнавання мови можуть демонструвати упередженість у тому, як вони реагують на користувачів з різною расовою ідентичністю та акцентом.
Читайте також: