Главная Онлайн игры Технологические компании хотят бороться с домогательствами в играх

Технологические компании хотят бороться с домогательствами в играх

по ссылке egor


Конкурентоспособный CounterStrike: Глобальное наступление игрок Адам Бахриз, вероятно, убьет вас в игре. Он настолько опытен, что заключил контракт с Team Envy, киберспортивной организацией, в которой работают одни из самых высокопоставленных киберспортивных игроков Северной Америки. Бахриз также оказался глухим и юридически слепым, с заболеванием, известным как ХСАН 8.

«Что вы, ребята, хотите сделать? Просто выбить А? Я могу купить дым. Бахриз говорит. Его товарищи по команде тут же бросаются издеваться над ним и отключать его. «Тебя просто заблокируют», — говорит один из них. «Мы знаем, что вы троллите», — говорит другой. “Так раздражает.” «У тебя уже отключен звук».

«Хорошо, я не буду говорить, извини», — смиренно говорит он.

Бахриз проводит остаток игры в молчании и даже начинает плакать, раскрывая вполне реальные и мощные последствия, которые издевательства оказывают на геймеров, которые с ними сталкиваются. Это все, что не так с токсичной игровой культурой, где оскорбления раздаются свободно, издевательства случаются регулярно, и все, начиная от расизма, женоненавистничества, гомофобии, трансфобии, эйблизма и многого другого, является честной игрой. «Этот инцидент поверг меня в сильнейшую депрессию», — говорит мне Бахриз. «Я просто хочу весело провести время, играя в игру, но из-за дефекта речи, который находится вне моего контроля, это усложняется». Бахриз говорит, что в конечном итоге токсичные товарищи по команде выгнали его из игры, и хотя «большую часть времени люди токсичны, их редко выгоняют из игры. Вот почему это было так обидно. Вы можете заглушить токсичных людей, но вы не можете предотвратить объединение всей вашей команды, чтобы выгнать вас только по какой-либо причине, кроме проблем с речью».

В 2017 году стример Twitch, Николь Смитзаписала словесные оскорбления, которые она получила во время игры в Overwatch.

«Вернитесь на кухню», — сказал один из товарищей по команде.
«Вот почему девушкам не следует ничего делать», — вмешался другой.
«Можешь ли ты пойти и умереть?»

Как и Бахриз, Смит была встречена шквалом оскорблений, преследований и, в ее случае, женоненавистнических комментариев. Насилие, которое Смиту приходится терпеть только ради того, чтобы играть в видеоигры, напоминает GamerGate, где женщины, работающие в игровой и игровой журналистике (а также все, кто выступал в их защиту), терпели недели, месяцы, а в некоторых случаях и годы преследований, в том числе угрозы смертью, доксинг и преследование. Это привело к изменениям в реакции игровой индустрии на онлайн-преследования: некоторые разработчики и издатели игр реализовали собственные инициативы по борьбе с внутриигровой токсичностью, а также к широкой критике в адрес многих издателей и разработчиков за то, что они ждали, пока жизнь людей окажется под угрозой. серьезно относиться к преследованию.

А Опрос Антидиффамационной лиги 2020 г. выявили, что 81 процент взрослых американцев подвергались преследованиям в многопользовательских онлайн-играх по сравнению с 74 процентами в 2019 году, в то время как 70 процентов были названы оскорбительными именами в многопользовательских онлайн-играх, а 60 процентов стали объектами троллинга или «преднамеренных и злонамеренных попыток спровоцировать [other gamers] реагировать негативно». В целом с 2019 по 2020 год рост составил 7 процентов.

Что касается Бахриза, то он больше не подвергается таким оскорблениям, как раньше, но когда он это делает, он обычно просто заглушает их и изо всех сил старается «не позволять токсичности отвлекать умственно от игры», говорит он. Однако для других простое отключение звука не работает, если оно вообще доступно в игре, в которую они играют. В 2019 году другое исследование ADL показало, что 22 процента взрослых американцев, подвергшихся преследованиям в многопользовательских онлайн-играх, вообще перестали играть в определенные игры из-за преследования.

Разработчики игр хотят дать отпор, но на своих условиях

В 2017 году Activision Blizzard, Epic, Intel, Microsoft, Twitch и более 200 других компаний сформировали Альянс честной игры чтобы, как говорится на его веб-сайте, «поощрять честную игру и здоровое общество». В 2018 году Близзард публично названный 180 Овервотч игроков забанили за токсичное поведение, в том числе за оскорбления в аудиочатах и ​​намеренное прекращение игр. Неплохо для игры, в которой даже не было возможности сообщать о жестоком обращении с игроками после ее выпуска в 2016 году. В 2019 году Ubisoft выпустила мгновенный получасовые баны для Радуга Шесть Осада игроков, если компания обнаружила оскорбления в текстовом чате. Ubisoft’s нормы поведения говорит, что это включает в себя «любой язык или контент, который считается незаконным, опасным, угрожающим, оскорбительным, непристойным, вульгарным, клеветническим, разжигающим ненависть, расистским, сексистским, этически оскорбительным или представляющим собой преследование». Также в том же году Electronic Arts основала Совет игроков с первым саммитом Gamescom в Кельне, Германия.

Riot Games, компания, о которой в новостях упоминали как внутреннюю токсичность, так и токсичность в ее играх, также работает над решением этой проблемы. В 2012 году в League of Legends была введена система трибуналов, при которой игроки получали временные баны за свои действия и правонарушения, которые другие игроки считали неприемлемыми. (Система Трибуналов больше не существует.) В 2016 году она опубликовала отчет в Научный американец они пришли к выводу, что на основе исследования токсичности добавление внутриигровых подсказок (среди прочего) снизило внутриигровую токсичность на 25 процентов как у игроков, оскорбляющих в лобби, так и в матчах, содержащих оскорбления. Даже совсем недавно, в апреле 2021 года, Riot изменила свою политику конфиденциальности, чтобы разрешить захват и оценку голосовых сообщений игрока при подаче отчета об его поведении, с целью снизить токсичность голосовых сообщений, а также голосовых сообщений. игровой чат.

Вест Харт, руководитель отдела динамики игроков в Riot, рассказал мне, что их цель — «уменьшить боль игроков». Он продолжает: «Нарушения должны быть минимальными. Вы должны быть в состоянии просто сосредоточиться на игре и, надеюсь, достичь той цели, которая была у нас и у игроков, вы знаете, объединившись». Что касается технологии, лежащей в основе этой новой стратегии модерации голосовой связи, Харт отмечает, что «в настоящее время существуют различные подходы к возможности записи звука, будь то преобразование текста в речь, или, возможно, для реального понимания настроения того, что происходит». говорят и совершают в связи с этим какие-то действия. Мы позволяем технологиям немного проявить себя. Мы рассматриваем все возможности и сужаем круг того, что, по нашему мнению, будет лучшим подходом или подходами, потому что универсального решения не существует».

Что касается хранения данных, Харт говорит, что как только Riot будет удовлетворен лучшим способом сбора данных голосовой связи, это станет «самым быстрым способом получения этих отчетов», говорит он. Компания «обработает аудио, примет правильные решения, а затем решит, что мы будем делать дальше». Так что же происходит с данными после составления отчета? «Мы хотим удерживать это как можно меньше времени», — говорит Харт, — «на самом деле ровно настолько, чтобы иметь возможность рассмотреть его и затем принять соответствующие меры. Как только это будет сделано, мы хотим удалить его. Имеет смысл хранить данные на региональном уровне».

Хотя большая часть ответственности за борьбу с токсичностью лежит на издателях и разработчиках игр, размещающих платформы, на которых имеет место токсичное поведение, они не единственные компании, пытающиеся что-то с этим сделать.

Крупные технологические компании внедряются с неуклюжими решениями на базе искусственного интеллекта

На конференции разработчиков игр 2021 года, состоявшейся в прошлом месяце, Intel представила Bleep. Программа с технологией распознавания речи на базе искусственного интеллекта предназначена для борьбы с внутриигровой токсичностью путем обнаружения и редактирования аудио на основе предпочтений пользователя. Он действует как еще один уровень аудиомодерации поверх того, что предлагает платформа или сервис, и контролируется пользователем. Интересно, что им управляют с помощью переключателей и ползунков, что позволяет пользователям решать, на каком уровне они хотят слышать, например, разжигание ненависти. Он охватывает широкий спектр категорий, таких как «агрессия, женоненавистничество, ненависть LGTBQ+, расизм и ксенофобия, белый национализм» и многое другое. согласно превью Verge с технологией. Примечательно, что N-слово представляет собой настройку включения/выключения.

Хотя намерение кажется достойным восхищения, больше, чем несколько людей критиковали довольно неуклюжий способ, которым пользователь может выбрать некоторый уровень женоненавистничества, а не его отсутствие. Идея о том, что вы можете открыть приложение, а затем отключить все разжигание ненависти кроме эйблизм, например, противоречит здравому смыслу. В чем разница между некоторый и большинство белый национализм? Есть также вопросы о том, как именно эта технология работает на компьютере пользователя. Начинает ли он пищать после определенного количества оскорблений? Предпочитает ли он распространять клевету в адрес конкретной группы больше, чем в отношении других? Существует ли иерархия с точки зрения того, к каким группам технология наиболее чувствительна?

Сотрудничество с Дух ИИ, компания, специализирующаяся на распознавании речи с помощью искусственного интеллекта, Intel работала над Bleep как минимум последние два года. Но онлайн-преследование может быть трудно смягчить, особенно в аудио и в режиме реального времени. Даже самая сложная технология распознавания речи может не уловить нюансы токсичности, и, хотя она может распознать простые оскорбления, злоупотребление звуком — это не просто оскорбления и плохие слова. Просто посмотрите на оскорбления, с которыми приходится иметь дело Бахризу.

«Проблема с Bleep заключается в том, что он в значительной степени ориентирован на конкретные платформы и не будет доступен на большинстве платформ. Поэтому я думаю, что это часть проблемы», — говорит Найджел Каннингс, технический директор компании. Интеллектуальный голос, компания, специализирующаяся на распознавании речи и биометрических технологиях. Он имеет в виду тот факт, что Bleep, когда он будет доступен, скорее всего, будет работать только на системах на базе процессоров Intel, которые не представляют собой большинство платформ, на которых люди играют в видеоигры. Когда дело доходит до использования ползунков и переключателей для выбора «уровней» злоупотребления или токсичности, Найджел соглашается, что это, по меньшей мере, проблематично. «Идея о том, что у вас может быть уровень женоненавистничества, для меня просто безумна. Вы либо подвергаете цензуре эти материалы, либо нет — вы не даете людям уровней».

«Я предполагаю, что если вы повернете все регуляторы вверх, фильтрация, вероятно, будет чрезмерной», — говорит он. «Самое важное, что следует учитывать при использовании технологии распознавания речи, — это то, что она не дает 100-процентной точности. В видеоиграх люди становятся все более и более возбужденными, и некоторые слова становится все труднее различить». Есть несколько факторов, которые могут привести к сбою технологии распознавания речи. Акценты, уровень волнения, модуляция микрофона и многое другое усложняют проблему. Харт добавляет еще одну сложность: «Нужно понимать все языки, но есть понимание того, как говорят люди, как говорят геймеры и какие термины они используют? Они не универсальны. И когда эти термины привыкнут, они могут кардинально измениться. Многие геймеры могут это знать ГАРАНТИРОВАННАЯ ПОБЕДА это легко, правда? А если в начале игры вы скажете ГГ, легко, это смешно, правда? Потому что еще никто не играл. И это типа шутка, да? Я бы воспринял это смешно. Другие, возможно, нет. Но конец игры. Если ты проиграл, это может быть смешно. Верно? Если вы выиграли, это довольно грубо. Поэтому для технологии не просто расшифровать, но и помочь нам принять меры — это дополнительная задача помимо всего остального».

Еще одним ключевым недостатком такой технологии, как Bleep, по мнению Каннингса, является то, что она увековечивает идею о том, что ответственность за борьбу со злоупотреблениями лежит на геймере, а не на компаниях, которые владеют и управляют платформами, на которых происходят злоупотребления. Он утверждает, что это перекладывает проблему злоупотребления и токсичности на сторону клиента, и отмечает, что одна из основных причин, по которой крупные технологические компании не хотят хранить данные, заключается не в конфиденциальности, а в том, что, по его словам, «это невероятно дорого». . Вот почему компании не хотят брать на себя эту ответственность. Если вы можете себе представить, что находитесь в многопользовательской игре, и каждый отдельный аудиопоток должен проходить через технологию распознавания речи, то вам, вероятно, придется начать хранить профили, на случай, если вы в конечном итоге будете расспрашивать людей, спрашивая, новый ли это человек или они принимают новые личности в разных играх?»



Похожие новости

Оставить комментарий

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00