Facebook нужны 30 тысяч собственных модераторов — исследование

Опубликовано От Sergey

Если бы Facebook прекратил модерировать контент, то заполнился бы спамом, издевательствами и ненавистью. Вероятно, из соцсети ушла бы существенная часть пользователей, а вслед за ними — и рекламодатели с большими бюджетами.

Несмотря на важность модерации, Facebook не уделяет ей должного внимания. Большинство людей, которые определяют, что можно и чего нельзя делать в этой соцсети, даже не работают в ней — это фрилансеры, нанятые компаниями-посредниками. Решение этой проблемы предложил Центр бизнеса и прав человека Стерна при Нью-Йоркском университете.

Facebook нужны 30 тысяч собственных модераторов — исследование

Елена Лиханова

Ежедневно проверку проходят сотни сообщений, многие из которых травмируют психику. Несмотря на то, что для первичной сортировки публикаций используется искусственный интеллект, ошибки происходят постоянно. По данным Facebook, 10% постов получают неверную оценку — корректные публикации могут быть заблокированы, а не соответствующие правилам — пройти модерацию. С учетом того, что ежедневно проверяются 3 млн сообщений, количество ошибок достигает 300 тысяч. Некоторые из них могут иметь смертельные последствия. Например, военнослужащие Мьянмы использовали Facebook для подстрекательства к геноциду рохинджа, преимущественно мусульманского меньшинства, в 2016 и 2017 годах. Позже компания признала, что не смогла обеспечить соблюдение собственной политики, запрещающей разжигание ненависти.

В новом докладе Центра бизнеса и прав человека Стерна при Нью-Йоркском университете говорится, что Facebook следует нанять модераторов контента в штат, сделать их полноправными сотрудниками и удвоить их количество, чтобы повысить качество проверки. «Модерация контента отличается от других аутсорсинговых задач, таких как приготовление обедов или уборка, — говорит автор доклада Пол М. Барретт, заместитель директора Центра Стерна. — Это центральная функция бизнеса социальных медиа, и странно, что к ней относятся как к незначительной или сторонней проблеме».

Почему руководство Facebook так относятся к модерации? По мнению Барретта, как минимум отчасти это происходит из-за потенциальных затрат. Выполнение его рекомендаций обошлось бы компании очень дорого — скорее всего, в десятки миллионов долларов (хотя в перспективе это стало бы ежегодно приносить ей миллиарды долларов). Но есть и вторая, более сложная причина. «Модерация контента просто не вписывается в образ Кремниевой долины, придуманный ею самой. Некоторые виды деятельности очень престижны и высоко ценятся — создание инновационных продуктов, умный маркетинг, инженерия… Проверка контента не вписывается в эту картину», — говорит Барретт.

Он считает, что Facebook пора начать рассматривать модерацию как центральную часть бизнеса. Повысив важность этого процесса, можно избежать катастрофических ошибок, допущенных в случае с Мьянмой, повысить ответственность и лучше защитить психическое здоровье сотрудников.

Модерация контента неизбежно подразумевает работу с жутким материалом. Тем не менее, компания может облегчить ее: например, проводить скрининг сотрудников и убеждаться, что они осознают все риски, а также предоставлять им качественный уход и консультации специалистов. Барретт считает, что все работники Facebook могли бы заниматься модерацией контента в течение как минимум года — это стало бы своеобразной стажировкой, которая помогла бы лучше понимать последствия решений.

В докладе содержится восемь основных рекомендаций для Facebook.

  • Прекратить передачу модерации на аутсорсинг и повысить статус сотрудников, отсматривающих контент.
  • Удвоить количество модераторов, чтобы повысить качество проверки.
  • Нанять человека, который будет контролировать контент, заниматься фактчекингом и подчиняться непосредственно CEO или COO компании.
  • Ужесточить проверку в регионах из категории риска, например, в Азии и Африке.
  • Обеспечить модераторам высококачественную медицинскую помощь на рабочем месте, в том числе доступ к психиатрам.
  • Спонсировать исследования рисков для здоровья, связанных с проверкой публикаций, в частности, посттравматических расстройств.
  • Расширить узкоспециализированное государственное регулирование опасного для здоровья контента.
  • Значительно усилить фактчекинг, чтобы бороться с фейками.

Эти предложения как минимум амбициозны. Facebook не говорит, будет ли рассматривать их внедрение. Однако представитель соцсети отметил, что в рамках нынешнего подхода компания «при необходимости может быстро перестроить рабочие процессы», добавив, что «Facebook обладает нужной языковой экспертизой и может быстро нанять сотрудников в разных часовых поясах при возникновени новых потребностей или когда этого потребует ситуация во всем мире».

Барретт считает, что недавний эксперимент, проведенный Facebook из-за кризиса COVID-19, показал возможность изменений. Поскольку многие из модераторов не могли присутствовать в офисах, компания переложила ответственность за проверку конфиденциальных категорий контента на сотрудников, работающих из дома.

«Я нахожу очень показательным, что в момент кризиса Цукерберг положился на людей, которым доверяет: своих штатных сотрудников, — говорит Барретт. — Возможно, на этом стоит основывать разговор с Facebook о корректировке подхода к модерации контента».

Источник.

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Источник: https://rb.ru/

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *