Искусственный интеллект будет искоренять токсичность в онлайн-играх
Исходя из того, что гендерная и расовая токсичность, в частности, слишком распространены в онлайн-играх, фича может оказаться полезной. Для борьбы с этой проблемой ученые разрабатывают модели ИИ, которые могут выявлять токсичное поведение в режиме реального времени во время игры. Например, одна из моделей может обнаруживать токсичность с достаточной степенью точности, однако, ее разработка демонстрирует, насколько сложным может быть определение того, что считается токсичным. Чтобы создать свою модель, исследователи сначала попросили участников посмотреть видео геймеров, играющих в Overwatch, и оценить по шкале от 1 до 100, насколько токсичными были игроки в голосовых чатах игры. Работа показала, что то, что один человек воспринимает как токсичное, может быть воспринято другим человеком как совершенно безобидное.
Поэтому для устранения токсичности в онлайн-играх с использованием моделей ИИ необходимо предпринять еще много шагов, включающих подтверждение результатов, повышение точности прогнозов, решение таких проблем, как предвзятость, конфиденциальность и этика, а также учет контекстуальных факторов и субъективности. Ранее мы писали о последнем чат-боте Google, задаваясь вопросом: является ли LaMDA Искусственным Интеллектом с душой или же просто программой, которая может обмануть нас, заставив думать, что у нее есть сознание? |
Комментарии (0) | |