Войти в почту

Facebook нужны 30 тысяч собственных модераторов — исследование

Ежедневно проверку проходят сотни сообщений, многие из которых травмируют психику. Несмотря на то, что для первичной сортировки публикаций используется искусственный интеллект, ошибки происходят постоянно. По данным Facebook, 10% постов получают неверную оценку — корректные публикации могут быть заблокированы, а не соответствующие правилам — пройти модерацию. С учетом того, что ежедневно проверяются 3 млн сообщений, количество ошибок достигает 300 тысяч. Некоторые из них могут иметь смертельные последствия. Например, военнослужащие Мьянмы использовали Facebook для подстрекательства к геноциду рохинджа, преимущественно мусульманского меньшинства, в 2016 и 2017 годах. Позже компания признала, что не смогла обеспечить соблюдение собственной политики, запрещающей разжигание ненависти. В новом докладе Центра бизнеса и прав человека Стерна при Нью-Йоркском университете говорится, что Facebook следует нанять модераторов контента в штат, сделать их полноправными сотрудниками и удвоить их количество, чтобы повысить качество проверки. «Модерация контента отличается от других аутсорсинговых задач, таких как приготовление обедов или уборка, — говорит автор доклада Пол М. Барретт, заместитель директора Центра Стерна. — Это центральная функция бизнеса социальных медиа, и странно, что к ней относятся как к незначительной или сторонней проблеме». Почему руководство Facebook так относятся к модерации? По мнению Барретта, как минимум отчасти это происходит из-за потенциальных затрат. Выполнение его рекомендаций обошлось бы компании очень дорого — скорее всего, в десятки миллионов долларов (хотя в перспективе это стало бы ежегодно приносить ей миллиарды долларов). Но есть и вторая, более сложная причина. «Модерация контента просто не вписывается в образ Кремниевой долины, придуманный ею самой. Некоторые виды деятельности очень престижны и высоко ценятся — создание инновационных продуктов, умный маркетинг, инженерия... Проверка контента не вписывается в эту картину», — говорит Барретт. Он считает, что Facebook пора начать рассматривать модерацию как центральную часть бизнеса. Повысив важность этого процесса, можно избежать катастрофических ошибок, допущенных в случае с Мьянмой, повысить ответственность и лучше защитить психическое здоровье сотрудников. Модерация контента неизбежно подразумевает работу с жутким материалом. Тем не менее, компания может облегчить ее: например, проводить скрининг сотрудников и убеждаться, что они осознают все риски, а также предоставлять им качественный уход и консультации специалистов. Барретт считает, что все работники Facebook могли бы заниматься модерацией контента в течение как минимум года — это стало бы своеобразной стажировкой, которая помогла бы лучше понимать последствия решений. В докладе содержится восемь основных рекомендаций для Facebook. Прекратить передачу модерации на аутсорсинг и повысить статус сотрудников, отсматривающих контент. Удвоить количество модераторов, чтобы повысить качество проверки. Нанять человека, который будет контролировать контент, заниматься фактчекингом и подчиняться непосредственно CEO или COO компании. Ужесточить проверку в регионах из категории риска, например, в Азии и Африке. Обеспечить модераторам высококачественную медицинскую помощь на рабочем месте, в том числе доступ к психиатрам. Спонсировать исследования рисков для здоровья, связанных с проверкой публикаций, в частности, посттравматических расстройств. Расширить узкоспециализированное государственное регулирование опасного для здоровья контента. Значительно усилить фактчекинг, чтобы бороться с фейками. Эти предложения как минимум амбициозны. Facebook не говорит, будет ли рассматривать их внедрение. Однако представитель соцсети отметил, что в рамках нынешнего подхода компания «при необходимости может быстро перестроить рабочие процессы», добавив, что «Facebook обладает нужной языковой экспертизой и может быстро нанять сотрудников в разных часовых поясах при возникновени новых потребностей или когда этого потребует ситуация во всем мире». Барретт считает, что недавний эксперимент, проведенный Facebook из-за кризиса COVID-19, показал возможность изменений. Поскольку многие из модераторов не могли присутствовать в офисах, компания переложила ответственность за проверку конфиденциальных категорий контента на сотрудников, работающих из дома. «Я нахожу очень показательным, что в момент кризиса Цукерберг положился на людей, которым доверяет: своих штатных сотрудников, — говорит Барретт. — Возможно, на этом стоит основывать разговор с Facebook о корректировке подхода к модерации контента». Источник.

Facebook нужны 30 тысяч собственных модераторов — исследование
© RB.ru