В ИРИ считают, что государства и общества обязаны контролировать, как ИТ- гиганты используют алгоритмы своих сервисов
Давление регуляторов, настаивающих на том, чтобы изменить сам механизм работы соцсетей, вызывающих привыкание у пользователей, растет во многих странах. Эксперты говорят, что такое повышенное внимание сигнализирует о том, что текущая бизнес-модель индустрии социальных сетей может быть серьезно перестроена. Произойдет ли это в 2022 году? Во время первой итерации интернета (Web 1.0) — до появления социальных сетей — пользователям интернета приходилось активно искать необходимую им информацию. В текущей версии (Web 2.0) пользователи пассивно "бомбардируются" информацией со всех сторон: лайки, клики, обновления, постоянный поток текста, картинок и изображений. Это не случайно, поскольку точное профилирование человека означает для соцсети более точный подбор рекламы, а зависимость пользователей от площадки заставляют вращаться экономические колеса бигтеха. Крупнейшие соцсети, которые часто сравнивают с табачными корпорациями за то, что их продукты крайне прибыльны, но вызывают опасное привыкание и в конечном счете вредны для пользователей. Чтобы зарабатывать деньги, алгоритмы этих платформ удерживают пользователей, заставляя их прокручивать контент, а также рекламные объявления как можно дольше. Сейчас мы находимся в той же точке, когда необходимы качественные, всесторонние исследования того, как зависимость от социальных сетей влияет на развитие личности, его мировоззрение, психологическое и физическое состояние. Более того, важно понимать, как изменяется производительность труда работников "погруженных" в социальные сети. Аналогичные требования предъявляются табачным гигантам, которые вынуждены сообщать о рисках привыкания, и развития хронических болезней у заядлых курильщиков. С бигтехом та же история, - сейчас не обращать внимание на его деятельность уже не представляется возможным. Популярные видеоплатформы, такие как TikTok и YouTube, неоднократно упрекали в использовании алгоритмических систем рекомендаций, которые могут увести зрителей в опасные и вызывающие привыкание "кроличьи норы". В декабре 2021 года New York Times сообщила, что утечку внутреннего документа с подробным описанием алгоритма TikTok обеспечил источник, который был "обеспокоен стремлением приложения к продвижению "грустного" контента, который может причинить вред". Соцсеть, конечно, это отрицает. "Мы тестируем способы избежать рекомендации серий похожего контента — например, об экстремальных диетах или фитнесе, грусти или расставании, — чтобы защитить пользователей от просмотра слишком большого количества того контента, которые не представляют опасности в виде одного видео, но становятся проблемой, если их слишком много". Другой скандал связан с корпорацией Meta. Внутренние документы именно этой гиганта, просочившиеся в СМИ благодаря бывшей сотруднице ИТ-гиганта Фрэнсис Хауген, привлекли пристальное внимание общественности и регуляторов. В своем выступлении перед Сенатом Хауген сказала, что Facebook использует "рейтинг на основе вовлеченности" — алгоритмическую систему, которая вознаграждает посты, которые набирают наибольшее количество лайков, комментариев и репостов, а также придает большой вес "значимым социальным взаимодействиям" — контенту, который вызывает сильную реакцию. Созданная система усиливает разногласия на платформе, способствует разжиганию ненависти и распространению дезинформации, а также подстрекает к насилию. Помимо уже нескрываемой политической ангажированности, одной из основных проблем бигтеха является сохраняющееся отсутствие прозрачности его работы и невозможность сторонних исследований и оценки вреда алгоритмов. Платформы не раскрывают ни секретов своих механизмов, ни того, на основе каких конкретно данных они работают, ссылаясь на то, что они не могут это сделать, не пожертвовав конфиденциальностью пользователей. Однако ситуация может существенно измениться уже совсем скоро. От критики и задавания вопросов регуляторы переходят к реальным мерам. Причем разные страны, которые, казалось бы, "не смотрят" друг на друга в вопросах регулирования, все равно приходят к единому знаменателю того, как подходить к алгоритмам ИТ-гигантов. В Китае, например, с 1 марта действуют новые требования, которые требуют от онлайн-платформ раскрывать принципы работы их алгоритмов и их назначение, а также предоставлять пользователям возможность их отключать или выбирать теги, по которым им будет показываться реклама. В 2020 году публичные консультации по поводу разрабатываемого закона о цифровых услугах (Digital Services Act) начались в Европе: она также хочет большей прозрачности в онлайн-рекламе платформ и алгоритмах, используемых для рекомендации контента пользователям. Даже на родине ИТ-гигантов в США укрепляется двухпартийный консенсус в отношении того, что необходимо бороться с тем, как ведущие соцсети используют алгоритмические инструменты, и первый шаг, по мнению местных законодателей, – это "опрозрачивание". Получается, что каким бы своим регуляторным путем не шла страна, в отношении рекомендательных алгоритмов вывод регуляторов по всему миру схож: этот "черный ящик" необходимо вскрывать. В нашей стране сейчас тоже разрабатывается законодательство, направленное на "опрозрачивание" алгоритмов. В планах – обязать площадки раскрывать, как именно работают их механизмы рекомендаций, на основе каких данных, а также обеспечить пользователям возможность отключения алгоритмов, которые формируют в ленте специально подобранный контент. Однако, конечно, при понимании того, что откладывать вопрос этого регулирования нельзя, есть ряд нюансов, которые требуют качественной проработки: необходимо не затормозить развитие отрасли, позволив онлайн-площадкам оказывать своим пользователям наилучший сервис на основе индивидуального подхода, но в то же время ограничить возможные злоупотребления. Эти ограничения понимают и в других странах, поэтому обсуждение подходов к регулированию продолжается. В целом надо понимать, что бигтех – это феноменально прибыльные компании, а их алгоритмы — это основной источник повышения их эффективности. Отказ от использования алгоритмов невозможен, но в силах государства и общества контролировать их использование. Автор - заместитель генерального директора АНО "ИРИ" по правовым вопросам, заместитель председателя Комиссии по правовому обеспечению цифровой экономики (АЮР).