Ещё

Facebook раздора: почему социальная сеть перестала быть безопасной 

Фото: ТК «Звезда»
Социальная сеть, до сих пор удерживающая пальму первенства по количеству пользователей, рискует потерять свои позиции. И дело не только в том, что «невероятным» образом данные пользователей попадают в руки третьих лиц. Проблема в довольно спорной политике модерации. Несмотря на то, что Администрация еженедельно устраивает заседания и вносит коррективы в Нормы сообщества, от неясных и дискуссионных решений это не спасает. «Звезда» собрала примеры, иллюстрирующие неэффективность работы системы проверки постов и аккаунтов.
Несмотря на то, что Facebook существует уже больше 15 лет, чего вполне достаточно, казалось бы, для разработки абсолютно однозначных норм поведения для пользователей, почему-то этого до сих пор не произошло.
Модераторы и администрация Facebook прямо в собственных правилах указывают, что любое решение по поводу блокировки той или иной записи или бана аккаунта в конечном итоге остается на усмотрение человека, к которому жалоба приходит. Более того, на это решение у каждого модератора отводится не более 20 секунд. Что можно успеть понять за это время, особенно, если человек напротив экрана монитора не носитель языка, на котором написан комментарий? А что делать с экстремистскими картинками, на которых, де-факто есть текст, но он, естественно не распознается?
Как пишет IT-издание habrahabr, зачастую сотрудники полагаются на Google Translate. Не думаем, что нужно приводить пример, насколько «криво» будет выглядеть перевод таких комментариев.
NY Times, в распоряжении которого оказались справочные материалы, с которыми работают модераторы по всему миру пишет, что «мануал Facebook не похож на чёткое руководство. Он состоит из десятков разобщённых презентаций PowerPoint и электронных таблиц Excel». В них, по данным издания, содержатся весьма разрозненные указания на то, как действовать в той или иной ситуации. И нередко решения модераторов вызывают вопросы. Мы собрали некоторые примеры того, что субъективная оценка практически всегда приводит к тому, что несмотря на все правильные лозунги, соцсеть перестает быть «безопасным местом для общения».
Более того, зачастую формулировки, которыми сопровождается решение о блокировке той или иной записи или аккаунта в итоге настолько размыты, что не позволяют человеку осознать причину удаления.
Противоречащие друг другу решения.
«Нормы сообщества распространяются на все разновидности контента и действуют по всему миру» — пишет администрация Facebook в своих правилах практически в первых строках.
То есть социальная сеть не должна относиться к кому-то с большим предпочтением, исходя только из национальной или региональной принадлежности автора.
Несколько пунктов основополагающих принципов мы вынесем сюда. Администрация полагает, что общение в соцсети должно быть в первую очередь безопасным, что означает, что модераторы «стремятся удалять контент, который призывает к причинению вреда в реальном мире, в частности физического вреда, финансового ущерба и психологических травм».
«Наша миссия — помочь людям в выражении самых разных мнений. В спорных ситуациях мы предпочитаем не удалять контент, даже если некоторым людям он кажется неподобающим, кроме случаев, когда удаление такого контента позволяет предотвратить причинение конкретного вреда», — гласит второй пункт информационной политики Соцсети.
Однако, почему-то группы, которые до этого продвигали про-российскую позицию оказались либо временно, либо окончательно отправлены в бан.
https://www.facebook.com/rusvesna1/ — полностью удаленная страница с новостями из ДНР и ЛНР.
ДНР и ЛНР считаются террористическими организациями на территории Украины. Возможно, именно это и стало причиной блокировки.
Удаленная новость у военного корреспондента «КП»Александра Коца.
Закрытый на какое-то время проект RT. Без объяснения причин, конечно же.
Это — только несколько примеров.
При этом УНА-УНСО и «Правый сектор»* (*деятельность организаций УНА-УНСО и «Правый сектор» запрещена на территории РФ решением Верховного суда) считаются экстремистскими на территории России. А группы есть.
Вот первый пример;
Второй пример;
Третий пример.
«Сообщество Facebook охватывает весь мир во всем его многообразии. Наши политики могут показаться недостаточно конкретными, но это связано с тем, что мы хотим обеспечить справедливое и последовательное их применение ко всему сообществу вне зависимости от региона, культуры и языка. В результате Нормы сообщества иногда могут казаться менее детальными, чем хотелось бы, что расходится с их изначальной целью. Поэтому в некоторых ситуациях, когда у нас есть дополнительный контекст, мы принимаем решение исходя из духа, а не из буквы политики», — именно так описывает свою политику администрация Facebook.
То есть получается, что по итогу решение о блокировке записи модератор оставляет исключительно за собой. А прописано ли в трудовых договорах или должностных инструкциях тех людей, которых принимают на работу беспристрастность? Как проверяется правомерность блокировки поста? И как понять, что человеческий фактор из решения полностью исключен?
Например, в случае с русскоязычным пользователем Интернета, который абсолютно в позитивном ключе назвал себя хохлом. Почему пост был удален? То есть выходит, что в русскоязычном сегменте того самого духа нет, а есть только буква политики. «В некоторых случаях слова или термины, которые иначе считались бы нарушающими наши Нормы, используются человеком в отношении себя самого или в мотивационных высказываниях. В подобных случаях мы разрешаем контент, однако просим людей четко указать цель своей публикации, чтобы мы могли понять, зачем они им поделились»., — именно так расширяют эту мысль сотрудники Facebook.
А вот так выглядел пост того самого пользователя:
«Гуглить умею. Это я придумал способ пообщаться с пользой. Хохол))», — написал о себе пользователь ФБ. Запись была удалена.
При этом, подобное оскорбительное название другой довольно большой группы людей модераторы Facebook обходят стороной. Ниже пример:
Фраза: «мой маленький колорад». Возможно, из-за сложностей перевода с помощью Google. Translate модераторы не в состоянии квалифицировать данное слово, как оскорбление. Но это именно так. Поэтому по аналогии с вышеуказанным, вполне логично начать банить и тех, кто даже в позитивном ключе употребляет данное слово.
Аналогичный пример. Поздравление с 23 февраля, которое разместил один из пользователей русскоязычного сегмента Facebook. Он проиллюстрировал свой пост фотографиями, на которых были изображены три Героя России и погибшие командиры батальонов, воюющих за ДНР и ЛНР.
Причина блокировки, опять же туманна, но можно предположить, что некто из украинского сегмента Facebook пожаловался на фотографию погибших Гиви и Моторолы.
«Согласно нашим Нормам сообщества пользователи должны соблюдать уважение к другим, когда выражают свое мнение или общаются.», — говорится в причинах блокировки данного поста.
При этом отмечаем, что изображение Михаила Толстых, которое украинский аккаунт приводит с оскорбительной подписью не считается нарушающим нормы сообщества.
Возможно, уважаемые модераторы не в курсе, что Иосиф Кобзон 20 августа ушел из жизни. Ранее был убит Михаил Толстых. И подобное глумление над мертвыми в нашем обществе считается оскорбительным.
На нашу просьбу проверить данный пост, администрация прислала следующий ответ:
Слишком размытые формулировки
Более того, иногда из тех формулировок, которыми модераторы сопровождают заблокированную запись совершенно неясно за что она все-таки была удалена. Например:
Для этого поста предлагается вот такая формулировка причины блокировки:
Возможно, в этом посте и правда есть что-то оскорбительное. Но как вашему пользователю понять, что же именно?
Более того, некоторые блокировки выглядят совсем абсурдно. В марте один из пользователей пожаловался на то, что Facebook удалил его публикацию с рецептом голубцов. При этом сам рецепт он выложил еще в 2015 году. О том, что запись удалена он был проинформирован только в середине марта 2019. Что плохого вы нашли в голубцах?
Данный рецепт был опубликован на личной странице пользователя. Он не призывал убежденных вегетарианцев есть мясо и не выкладывал контент с убийством коровы специально для этого блюда. А из формулировки «публикация нарушает наши Нормы сообщества» совершенно неясно, о чем идет речь.
Невозможность обеспечить безопасность
Как уже говорилось в самом начале, на проверку поста модератору дается всего 20 секунд. А в качестве переводчика — Google Translate. В таком случае, сотрудники, пусть даже их, по последним данным около 7500 человек, не в состоянии адекватно оценить нарушает ли та или иная публикация нормы. Из-за этого множество явно попадающих под блокировку постов или групп остаются в соцсети.
Статья первая пункт первый гласит, что «Мы запрещаем продвигать или предавать огласке насильственные преступления, кражи и/или мошенничество. При этом мы разрешаем обсуждать или отстаивать правомерность преступных действий, а также отзываться о них в риторическом или сатирическом ключе». Эта же мысль в более расширенном виде присутствует в третьей статье пункт 13, которая гласит: «Мы удаляем контент, поощряющий насилие или описывающий наслаждение страданиями или унижением других людей. В то же время мы разрешаем публикацию изображений со сценами насилия, а также тяжелых для восприятия изображений (за некоторыми исключениями), если это помогает повысить осведомленность о важных проблемах».
Напомним, что во время теракта в Новой Зеландии, по словам самих представителей Facebook, стрим посмотрели «всего 200 человек, а жалоба пришла только через 12 минут после окончания трансляции».
Однако же, встает вопрос о том, почему 7500 модераторов не смогли отследить трансляцию, идущую не минуту, не две и даже не пять.
В пунктах правил есть и отдельная статья о запрещении пропаганды терроризма. «Стремясь предотвратить нанесение кому-либо вреда в реальном мире, мы не разрешаем присутствие на Facebook организациям или отдельным лицам, которые занимаются следующими видами деятельности, а именно, терроризмом, организованным проявлением ненависти, массовыми или серийными убийствами, торговлей людьми, организованным насилием или преступной деятельностью. „Мы также удаляем контент, в котором выражается поддержка или восхваление отдельных лиц и групп, занимающихся подобной деятельностью, а также лидеров этих групп“, — подчеркнуто в правилах.
В таком случае, хочется верить, что администрация просто недоглядела и пропустила эти группы ненамеренно.
Символика запрещенной организации „Правый сектор“* (деятельность запрещена на территории России).
Символика террористических организаций.
Крымско-татарский меджлис* (экстремистская организация. деятельность запрещена на территории РФ)— экстремистская организация. Поскольку это — русскоязычный сегмент Facebook, то логично, что он должен работать в рамках российского законодательства.
Администрация Facebook, согласно собственным нормам и правилам, обязалась удалять враждебные высказывания, так как они создают атмосферу запугивания и изоляции, а в некоторых случаях могут провоцировать насилие в реальном мире.
Под враждебными высказываниями мы понимаем непосредственные нападки на людей, мотивированные их расовой или этнической принадлежностью, национальностью, вероисповеданием, сексуальной ориентацией, кастой, полом или гендерной идентичностью, а также наличием серьезного заболевания или инвалидностью (так называемые „характеристики, подлежащие защите от дискриминации“). Хочется верить, что модераторы, опять же, просто недоглядели за нижеследующими группами и гражданами.
Оскорбительная заставка группы
В профиле неоднократные оскорбления России и россиян
Распространение фейковых новостей, разжигание межнациональной розни, оскорбления.
Оскорбления россиян.
Многократные оскорбления россиян.
Сообщество, прославляющее пособника фашистов и нацистов — Степана Бандеру. Уже неоднократно видные политики, такие, как Милош Земан, президент России и другие призывали осудить пособников. В данном случае мы можем видеть оскорбление и насмешка над инвалидами.
Итоги
То есть получается, что несмотря на многочисленные правила и еженедельные обсуждения и дополнения, система проверки и модерации не работает. В таком случае, каким образом называть данную систему беспристрастной, а соцсеть — безопасной для общения? Получается, что пользователи не могут осознать, за что заблокировали тот или иной пост, поскольку формулировки размыты. Из-за невозможности оценить враждебность того или иного высказывания в силу языкового барьера или иных причин, модераторы принимают весьма спорные решения, чем вызывают только недовольство политикой соцсети, и как следствие, оттоком пользователей. Более того, у русскоязычного сегмента Facebook создается впечатление того, что модераторы предвзяты к ним. Аналогичное ощущение — у украинской части. Зачем плодить раздор и усугублять и без того сложную ситуацию весьма спорными решениями о блокировках?
Вообще создается впечатление, что единственным выходом из подобной ситуации является переход в отечественные сети. А после истории с утечкой данных, эти впечатления банально начинают граничить с уверенностью.
Комментарии
Читайте также
Новости партнеров
Новости партнеров
Больше видео