Войти в почту

"Верховный суд" Facebook. Сделает ли он соцсеть безопаснее?

Ежемесячная аудитория Facebook составляет более 2,5 млрд пользователей по всему миру. Эта площадка давно стала чем-то большим, чем просто соцсеть. На ней не только общаются с друзьями и выкладывают фотографии, но ищут мероприятия, узнают новости, собирают пожертвования и создают сообщества. Как отмечали в самой компании, в мире свыше 2,89 млрд человек, которые хотя бы раз в месяц используют какой-то из ее сервисов. Проблемы с контентом Такие масштабы вынуждают руководство Facebook серьезно относиться к модерации контента. Тем более в последние несколько лет соцсеть регулярно оказывается из-за этого в центре скандалов. Будь то обвинения в попытке иностранных троллей повлиять на американские выборы, призывы в соцсети к насилию между рохинджа и буддистами или прямой эфир новозеландского террориста с расстрелом прихожан в мечетях Крайстчерча. К примеру, недавно эксперты выяснили, что страницы антипрививочников на Facebook гораздо популярнее, чем научные публикации. Об этом Марк Цукерберг писал еще в конце 2018 года, называя свой вывод "одним из самых болезненных уроков", который ему пришлось усвоить. В Facebook есть четкие правила того, что можно публиковать на площадке, а что окажется под запретом. К примеру, там нельзя размещать изображения обнаженных частей тела или контент сексуального характера, разжигать ненависть и совершать прямые нападки на человека или группу людей, демонстрировать материалы с нанесением увечий, чрезмерного насилия, создавать фальшивые профили и рассылать спам. За соблюдением этих правил следят специальные модераторы, чью работу тяжело назвать эффективной. Их реакция или не реакция на спорные материалы часто возмущала пользователей и наносила Facebook серьезные репутационные потери. Компанию не раз обвиняли в попустительстве публикации жестокого контента или в цензуре из-за блокировки страниц китайских, иранских и сирийских политиков. Запуск специального алгоритма на основе искусственного интеллекта, призванный автоматически удалять вредные материалы, не слишком помог ситуации. Для улучшения работы с контентом компания создала специальный совет Он призван играть определяющую роль в вопросах безопасности, свободы слова и регулирования материалов. Согласно заявлению Facebook, речь идет о "новой модели модерации". Надзорный совет сосредоточит свое внимание на наиболее сложных для соцсети вопросах, в том числе в отношении защиты от разжигания ненависти, безопасности и конфиденциальности пользователей. В полный состав совета войдут 40 человек, но пока в него отобрали только 20 экспертов. Остальные имена будут представлены в течение года. Поиском занимались четыре сопредседателя новой комиссии, которые при содействии Facebook изначально подобрали 16 кандидатов. Окончательное формирование органа должно быть завершено до конца ноября, тогда же начнется его работа. Для деятельности совета Facebook создал специальный трастовый фонд в размере $130 млн, распоряжаться которым сама компания не имеет права. Имена участников первого состава комиссии стали известны в начале мая Объявляя первых 20 экспертов, в компании отметили, что члены совета "жили в более 27 странах и владеют 29 языками", они также придерживаются взглядов, которые "не обязательно совпадают" с мнением руководства соцсети. Каждый из экспертов сможет находиться в составе совета не более девяти лет (три срока по три года). Руководство Facebook не имеет права их увольнять. Специалисты будут работать не полный день, но получат свой штат сотрудников с полной занятостью. Для независимой оценки материалов члены совета не должны иметь фактических или предполагаемых конфликтов интересов, которые могут поставить под угрозу принятие совместных решений. Кроме того, комиссия отдает предпочтение кандидатам из разных профессиональных сфер и с разным опытом. Учитывается географическое, гендерное, политическое, социальное и религиозное разнообразие кандидатов. "Facebook набирает в независимый надзорный совет опытных, надежных и принципиальных людей с прогрессивными взглядами и без предрассудков в отношении других культур", — говорится на портале, где каждый может предложить в качестве эксперта себя или своего кандидата. Как будет работать совет? Комиссия будет принимать окончательное и обязательное для исполнения решение о том, следует ли разрешить или удалить тот или иной контент из Facebook и Instagram или What’s App (последние две соцсети также принадлежат Facebook). На основе проделанной работы эксперты будут выносить рекомендации по вопросам надзорной политики. "Мы будем принимать решения в интересах пользователей и общества, независимо от экономических, политических или репутационных интересов Facebook. Соцсеть должна выполнять наши решения, если это не нарушает закон", — говорится на официальном сайте комиссии. Пользователи смогут обращаться к правлению в тех случаях, когда Facebook удаляет их контент, но в дальнейшем совету можно будет предлагать на рассмотрение сторонние материалы. Обращаться к экспертам за оценкой будет и сам Facebook. Комиссия собирается сосредоточиться на тех материалах, на которые обратило внимание наибольшее число пользователей. Точная информация о том, как эксперты будут расставлять приоритеты в своей работе, должна быть представлена позже. Правление подчеркивает прозрачный характер решений и намерено публиковать в открытом доступе их обоснования, сохраняя анонимность пользователей. "Решения правления будут обязательны к исполнению, даже если я или кто-либо в Facebook не согласен с ними", — подчеркнул сам Цукерберг. Решит ли это проблему с модерацией контента? Многие эксперты отмечают, что "Верховный суд" вряд ли сделает Facebook и принадлежащие ему сервисы более безопасными. Во первых, члены правления готовы уделять этой работе в среднем 15 часов в неделю, что для масштабов аудитории в почти 3 млрд человек кажется смехотворным. Даже если бы все 40 членов совета занимались своими обязанностями полный рабочий день, то это все равно оставило бы большинство спорных случаев нерешенными. Таким образом эксперты будут изучать не рутинные материалы, а самые неоднозначные случаи. Получается, что проблемный и неочевидный контент сначала все же будет появляться на Facebook, вызывать возмущение пользователей и только потом попадать на рассмотрение к экспертам. Facebook также сможет перекладывать на cовет всю вину за некачественную модерацию. Кроме того, компании не придется оправдываться перед политиками или общественными деятелями за удаленные посты. Все решения на совести независимых экспертов, а соцсеть не имеет права вмешиваться в их работу. Первый скандал Совет еще не начал работу, но уже спровоцировал первый международный скандал. Критику вызвало назначение в совет лауреата Нобелевской премии мира йеменки Тавакуль Карман, которая имеет связи с организацией "Братья мусульмане", признанной экстремистской во многих странах. В прошлом году она разместила в Facebook пост, в котором заявила, что "движение "Братья мусульмане" останется движением против тирании и борьбы за свободу, несмотря на нос [президента США Дональда] Трампа и его агентов, и является одной из жертв тирании и официального терроризма в регионе, которому Трамп оказывает всяческую поддержку". Египетский парламентарий назвал Карман, которая также имеет турецкое гражданство, ответственной за "ненависть и фанатизм по отношению к Египту и всем умеренным странам арабского мира". Пользователи социальных сетей запустили хештег #RefuseTawakulKarman ("Отказаться от Тавакуль Карман") с требованием Facebook отозвать ее назначение, так как она не является политически нейтральной фигурой и известна экстремистскими взглядами. Ее появление в совете соцсети раскритиковали писатели, общественные деятели и многие политики арабского мира. По мнению экспертов, персона Карман усилит подозрения в политических симпатиях Facebook и вряд ли повысит авторитет компании в арабском мире. В Facebook пока никак не прокомментировали эту ситуацию Надежды на успех В целом совет вызвал скептические реакции среди экспертов и в прессе, но есть и другие отзывы. "Это беспрецедентный и инновационный подход к управлению платформой, окончательная власть над некоторыми наиболее важными решениями в отношении контента переходит к независимому наблюдательному совету, — заявил Би-би-си Марк Стивенс, юрист из фирмы Howard Kennedy. Многие настроены цинично, но это неправильная реакция, стоит учесть полномочия совета, его калибр, возможности глубокого контроля и, наконец, его полную независимость". Сопредседатель правления совета Майкл Макконнелл сказал, что новый метод оценки контента является экспериментом и, вероятно, будут допущены ошибки, но он надеется, что в результате это принесет платформе "более высокую степень политического нейтралитета". Дмитрий Беляев

"Верховный суд" Facebook. Сделает ли он соцсеть безопаснее?
© ТАСС