Войти в почту

Facebook раздора: почему социальная сеть перестала быть безопасной

Социальная сеть, до сих пор удерживающая пальму первенства по количеству пользователей, рискует потерять свои позиции. И дело не только в том, что «невероятным» образом данные пользователей попадают в руки третьих лиц. Проблема в довольно спорной политике модерации. Несмотря на то, что Администрация еженедельно устраивает заседания и вносит коррективы в Нормы сообщества, от неясных и дискуссионных решений это не спасает. «Звезда» собрала примеры, иллюстрирующие неэффективность работы системы проверки постов и аккаунтов. Несмотря на то, что Facebook существует уже больше 15 лет, чего вполне достаточно, казалось бы, для разработки абсолютно однозначных норм поведения для пользователей, почему-то этого до сих пор не произошло. Модераторы и администрация Facebook прямо в собственных правилах указывают, что любое решение по поводу блокировки той или иной записи или бана аккаунта в конечном итоге остается на усмотрение человека, к которому жалоба приходит. Более того, на это решение у каждого модератора отводится не более 20 секунд. Что можно успеть понять за это время, особенно, если человек напротив экрана монитора не носитель языка, на котором написан комментарий? А что делать с экстремистскими картинками, на которых, де-факто есть текст, но он, естественно не распознается? Как пишет IT-издание habrahabr, зачастую сотрудники полагаются на Google Translate. Не думаем, что нужно приводить пример, насколько «криво» будет выглядеть перевод таких комментариев. NY Times, в распоряжении которого оказались справочные материалы, с которыми работают модераторы по всему миру пишет, что «мануал Facebook не похож на чёткое руководство. Он состоит из десятков разобщённых презентаций PowerPoint и электронных таблиц Excel». В них, по данным издания, содержатся весьма разрозненные указания на то, как действовать в той или иной ситуации. И нередко решения модераторов вызывают вопросы. Мы собрали некоторые примеры того, что субъективная оценка практически всегда приводит к тому, что несмотря на все правильные лозунги, соцсеть перестает быть «безопасным местом для общения». Более того, зачастую формулировки, которыми сопровождается решение о блокировке той или иной записи или аккаунта в итоге настолько размыты, что не позволяют человеку осознать причину удаления. Противоречащие друг другу решения. «Нормы сообщества распространяются на все разновидности контента и действуют по всему миру» - пишет администрация Facebook в своих правилах практически в первых строках. То есть социальная сеть не должна относиться к кому-то с большим предпочтением, исходя только из национальной или региональной принадлежности автора. Несколько пунктов основополагающих принципов мы вынесем сюда. Администрация полагает, что общение в соцсети должно быть в первую очередь безопасным, что означает, что модераторы «стремятся удалять контент, который призывает к причинению вреда в реальном мире, в частности физического вреда, финансового ущерба и психологических травм». «Наша миссия — помочь людям в выражении самых разных мнений. В спорных ситуациях мы предпочитаем не удалять контент, даже если некоторым людям он кажется неподобающим, кроме случаев, когда удаление такого контента позволяет предотвратить причинение конкретного вреда», - гласит второй пункт информационной политики Соцсети. Однако, почему-то группы, которые до этого продвигали про-российскую позицию оказались либо временно, либо окончательно отправлены в бан. https://www.facebook.com/rusvesna1/ - полностью удаленная страница с новостями из ДНР и ЛНР. ДНР и ЛНР считаются террористическими организациями на территории Украины. Возможно, именно это и стало причиной блокировки. Удаленная новость у военного корреспондента «КП»Александра Коца. Закрытый на какое-то время проект RT. Без объяснения причин, конечно же. Это – только несколько примеров. При этом УНА-УНСО и «Правый сектор»* (*деятельность организаций УНА-УНСО и «Правый сектор» запрещена на территории РФ решением Верховного суда) считаются экстремистскими на территории России. А группы есть. Вот первый пример; Второй пример; Третий пример. «Сообщество Facebook охватывает весь мир во всем его многообразии. Наши политики могут показаться недостаточно конкретными, но это связано с тем, что мы хотим обеспечить справедливое и последовательное их применение ко всему сообществу вне зависимости от региона, культуры и языка. В результате Нормы сообщества иногда могут казаться менее детальными, чем хотелось бы, что расходится с их изначальной целью. Поэтому в некоторых ситуациях, когда у нас есть дополнительный контекст, мы принимаем решение исходя из духа, а не из буквы политики», - именно так описывает свою политику администрация Facebook. То есть получается, что по итогу решение о блокировке записи модератор оставляет исключительно за собой. А прописано ли в трудовых договорах или должностных инструкциях тех людей, которых принимают на работу беспристрастность? Как проверяется правомерность блокировки поста? И как понять, что человеческий фактор из решения полностью исключен? Например, в случае с русскоязычным пользователем Интернета, который абсолютно в позитивном ключе назвал себя хохлом. Почему пост был удален? То есть выходит, что в русскоязычном сегменте того самого духа нет, а есть только буква политики. «В некоторых случаях слова или термины, которые иначе считались бы нарушающими наши Нормы, используются человеком в отношении себя самого или в мотивационных высказываниях. В подобных случаях мы разрешаем контент, однако просим людей четко указать цель своей публикации, чтобы мы могли понять, зачем они им поделились». , - именно так расширяют эту мысль сотрудники Facebook. А вот так выглядел пост того самого пользователя: «Гуглить умею. Это я придумал способ пообщаться с пользой. Хохол))», - написал о себе пользователь ФБ. Запись была удалена. При этом, подобное оскорбительное название другой довольно большой группы людей модераторы Facebook обходят стороной. Ниже пример: Фраза: «мой маленький колорад». Возможно, из-за сложностей перевода с помощью Google. Translate модераторы не в состоянии квалифицировать данное слово, как оскорбление. Но это именно так. Поэтому по аналогии с вышеуказанным, вполне логично начать банить и тех, кто даже в позитивном ключе употребляет данное слово. Аналогичный пример. Поздравление с 23 февраля, которое разместил один из пользователей русскоязычного сегмента Facebook. Он проиллюстрировал свой пост фотографиями, на которых были изображены три Героя России и погибшие командиры батальонов, воюющих за ДНР и ЛНР. Причина блокировки, опять же туманна, но можно предположить, что некто из украинского сегмента Facebook пожаловался на фотографию погибших Гиви и Моторолы. «Согласно нашим Нормам сообщества пользователи должны соблюдать уважение к другим, когда выражают свое мнение или общаются.», - говорится в причинах блокировки данного поста. При этом отмечаем, что изображение Михаила Толстых, которое украинский аккаунт приводит с оскорбительной подписью не считается нарушающим нормы сообщества. Возможно, уважаемые модераторы не в курсе, что Иосиф Кобзон 20 августа ушел из жизни. Ранее был убит Михаил Толстых. И подобное глумление над мертвыми в нашем обществе считается оскорбительным. На нашу просьбу проверить данный пост, администрация прислала следующий ответ: Слишком размытые формулировки Более того, иногда из тех формулировок, которыми модераторы сопровождают заблокированную запись совершенно неясно за что она все-таки была удалена. Например: Для этого поста предлагается вот такая формулировка причины блокировки: Возможно, в этом посте и правда есть что-то оскорбительное. Но как вашему пользователю понять, что же именно? Более того, некоторые блокировки выглядят совсем абсурдно. В марте один из пользователей пожаловался на то, что Facebook удалил его публикацию с рецептом голубцов. При этом сам рецепт он выложил еще в 2015 году. О том, что запись удалена он был проинформирован только в середине марта 2019. Что плохого вы нашли в голубцах? Данный рецепт был опубликован на личной странице пользователя. Он не призывал убежденных вегетарианцев есть мясо и не выкладывал контент с убийством коровы специально для этого блюда. А из формулировки «публикация нарушает наши Нормы сообщества» совершенно неясно, о чем идет речь. Невозможность обеспечить безопасность Как уже говорилось в самом начале, на проверку поста модератору дается всего 20 секунд. А в качестве переводчика – Google Translate. В таком случае, сотрудники, пусть даже их, по последним данным около 7500 человек, не в состоянии адекватно оценить нарушает ли та или иная публикация нормы. Из-за этого множество явно попадающих под блокировку постов или групп остаются в соцсети. Статья первая пункт первый гласит, что «Мы запрещаем продвигать или предавать огласке насильственные преступления, кражи и/или мошенничество. При этом мы разрешаем обсуждать или отстаивать правомерность преступных действий, а также отзываться о них в риторическом или сатирическом ключе». Эта же мысль в более расширенном виде присутствует в третьей статье пункт 13, которая гласит: «Мы удаляем контент, поощряющий насилие или описывающий наслаждение страданиями или унижением других людей. В то же время мы разрешаем публикацию изображений со сценами насилия, а также тяжелых для восприятия изображений (за некоторыми исключениями), если это помогает повысить осведомленность о важных проблемах». Напомним, что во время теракта в Новой Зеландии, по словам самих представителей Facebook, стрим посмотрели «всего 200 человек, а жалоба пришла только через 12 минут после окончания трансляции». Однако же, встает вопрос о том, почему 7500 модераторов не смогли отследить трансляцию, идущую не минуту, не две и даже не пять. В пунктах правил есть и отдельная статья о запрещении пропаганды терроризма. «Стремясь предотвратить нанесение кому-либо вреда в реальном мире, мы не разрешаем присутствие на Facebook организациям или отдельным лицам, которые занимаются следующими видами деятельности, а именно, терроризмом, организованным проявлением ненависти, массовыми или серийными убийствами, торговлей людьми, организованным насилием или преступной деятельностью. «Мы также удаляем контент, в котором выражается поддержка или восхваление отдельных лиц и групп, занимающихся подобной деятельностью, а также лидеров этих групп», - подчеркнуто в правилах. В таком случае, хочется верить, что администрация просто недоглядела и пропустила эти группы ненамеренно. Символика запрещенной организации «Правый сектор»* (деятельность запрещена на территории России). Символика террористических организаций. Крымско-татарский меджлис*(экстремистская организация. деятельность запрещена на территории РФ)- экстремистская организация. Поскольку это – русскоязычный сегмент Facebook, то логично, что он должен работать в рамках российского законодательства. Администрация Facebook, согласно собственным нормам и правилам, обязалась удалять враждебные высказывания, так как они создают атмосферу запугивания и изоляции, а в некоторых случаях могут провоцировать насилие в реальном мире. Под враждебными высказываниями мы понимаем непосредственные нападки на людей, мотивированные их расовой или этнической принадлежностью, национальностью, вероисповеданием, сексуальной ориентацией, кастой, полом или гендерной идентичностью, а также наличием серьезного заболевания или инвалидностью (так называемые "характеристики, подлежащие защите от дискриминации"). Хочется верить, что модераторы, опять же, просто недоглядели за нижеследующими группами и гражданами. Оскорбительная заставка группы В профиле неоднократные оскорбления России и россиян Распространение фейковых новостей, разжигание межнациональной розни, оскорбления. Оскорбления россиян. Многократные оскорбления россиян. Сообщество, прославляющее пособника фашистов и нацистов – Степана Бандеру. Уже неоднократно видные политики, такие, как Милош Земан, президент России и другие призывали осудить пособников. В данном случае мы можем видеть оскорбление и насмешка над инвалидами. Итоги То есть получается, что несмотря на многочисленные правила и еженедельные обсуждения и дополнения, система проверки и модерации не работает. В таком случае, каким образом называть данную систему беспристрастной, а соцсеть – безопасной для общения? Получается, что пользователи не могут осознать, за что заблокировали тот или иной пост, поскольку формулировки размыты. Из-за невозможности оценить враждебность того или иного высказывания в силу языкового барьера или иных причин, модераторы принимают весьма спорные решения, чем вызывают только недовольство политикой соцсети, и как следствие, оттоком пользователей. Более того, у русскоязычного сегмента Facebook создается впечатление того, что модераторы предвзяты к ним. Аналогичное ощущение – у украинской части. Зачем плодить раздор и усугублять и без того сложную ситуацию весьма спорными решениями о блокировках? Вообще создается впечатление, что единственным выходом из подобной ситуации является переход в отечественные сети. А после истории с утечкой данных, эти впечатления банально начинают граничить с уверенностью.

Facebook раздора: почему социальная сеть перестала быть безопасной
© ТК «Звезда»