Как искусственный интеллект влияет на общественные и политические системы, образование и нормы поведения      

Искусственный интеллект пришел в нашу жизнь всерьез и надолго, и остановить этот процесс уже невозможно. В наших силах — понять, какое влияние он будет оказывать на жизнь и как изменятся привычные нам сферы деятельности. Центр содействия инновациям в обществе СОЛь сделали перевод статьи компании The Good Lobby, которая уже 40 лет выявляет и поддерживает лидеров социальных инноваций в 92 странах мира, и рассказали о том, как ИИ перестроит общественную систему, закрепит новые нормы и изменит образование.

.marker { background: #FFE3E0; background: linear-gradient(180deg,rgba(255,255,255,0) 45%, #FFE3E0 55%); }

Влияние искусственного интеллекта на общество

Создание искусственного интеллекта (ИИ) называют 4-й промышленной революцией (предыдущие три: создание паровой машины, изобретение электричества и компьютера). Это название достаточно точно отражает влияние технологии на мир и то, каким мы его знаем. Конечно, ее потенциал в революционном изменении мировых устоев не остался незамеченным: государства, международные организации и частные компании выделяют огромное количество времени и ресурсов на развитие ИИ, особенно в последние несколько лет.

Читайте рассказ о взаимодействии искусственного интеллекта и общества, подготовленный компанией The Good Lobby (Бельгия), которая работает над тем, чтобы предоставить каждому гражданину равный доступ к органам власти — для создания более многогранного, инклюзивного и демократического общества.

Статью комментирует Вячеслав Бахмин — правозащитник, сопредседатель Московской Хельсинкской группы, российский дипломат. Также Вячеслав Иванович является участником Карты лидеров изменений в социальной сфере — СоцЧейн, подготовленной Центром содействия инновациям в обществе СОЛь.

Компания The Good Lobby — стипендиат фонда Ashoka, который уже 40 лет выявляет и поддерживает лидеров социальных инноваций в 92 странах мира. Выявленных лидеров ежегодно представляют на Ashoka Changemaker Summit.

18 ноября 2020 года вы можете принять участие в форуме Ashoka Changemaker Summit, на котором Россия организует панельную дискуссию «Секреты успешных партнерств. Три кейса локализации в РФ». Она пройдет онлайн (начало в 13:00, МСК). Рабочий язык встречи — английский. Приглашаем к участию социальных инноваторов и инвесторов.

В дискуссии участвуют основатель QIWI Сергей Солонин и основатель компании Desan Денис Ходжаев. Модератор — инвестиционный директор Центра содействия инновациям в обществе Андрей Андрусов.

Общественные организации и сами люди должны внимательно следить за тем, что принесет внедрение ИИ в жизнь, и осознавать, какое влияние он будет оказывать на их работу и существование. Мы в The Good Lobby приняли на себя миссию рассказать о рисках и возможностях, которые уже сейчас несет ИИ, чтобы дать необходимые знания и инструменты, позволяющие капитализировать возможности и максимально снизить возможные риски его применения.

В поисках хорошего ИИ

Весь мир, от Европы до Китая, от Microsoft до Google, говорит о «хорошем ИИ», то есть об ИИ, который будет использоваться только во благо человечества в целом. Тем не менее разногласий достаточно.

Роль «хорошего ИИ» не должна ограничиваться только формированием политики в отношении этой технологии, но и обеспечивать соблюдение этого принципа в долгосрочной перспективе. При этом все доработки должны осуществляться исключительно в интересах человечества.

Важность работы со стартапами и технологическими компаниями

Именно стартапы обеспечивают основное развитие ИИ. В то время как правительства уделяют пристальное внимание ИИ и некоторые из них вкладывают значительные средства в его развитие, одного лишь диалога с государственными институтами будет недостаточно.

Чтобы добиться максимального эффекта, организации и люди, лоббирующие развитие ИИ, должны сотрудничать с его разработчиками, активно взаимодействовать со стартапами и направлять свои усилия на продвижение инноваций в этой области

Демократия

Демократия и принципы верховенства закона также подвержены изменениям в эпоху развития искусственного интеллекта. Один из примеров — распространение фейковых новостей (вне зависимости от их целенаправленности) в различных социальных сетях. Другой пример — использование подобных средств для влияния на избирательные намерения неопределившихся граждан.

Этот печально известный пример показал, как принципам демократии могут угрожать частные компании, которые точно знают, каким образом можно использовать данные и искусственный интеллект. Поскольку выборы, которые могут изменить весь мир, происходят практически каждый год, такие угрозы демократии будут не исключением, а скорее обычным явлением.

Новые формы дискриминации

Дискриминация — это широкомасштабная проблема, которая проявляется в самых разных формах и стоит перед огромным количеством организаций. Эпоха ИИ добавит ей новое измерение, так называемую алгоритмическую дискриминацию. Несмотря на то что существует тенденция считать решения, принимаемые алгоритмами, свободными от каких-либо недостатков и, следовательно, правильными, реальность такова, что на их качество влияют как инженеры, создавшие алгоритмы, так и данные, которые они используют. В результате алгоритмы могут (и будут) заимствовать предубеждения своих создателей и те систематические ошибки, которые существуют в используемых данных. Люди должны знать о рисках, а организации должны обеспечить адекватную поддержку тех, кто подвергается подобной дискриминации.

Прозрачность и подотчетность

Алгоритмическое принятие решений проблематично не только из-за предубеждений, но и из-за своей непрозрачности. Нередко бывают ситуации, когда даже сами люди, создавшие алгоритм, из-за его сложности иногда не знают, каким образом он пришел к решению. Это часто описывают как «черный ящик» ИИ: мы знаем вход и выход, но не знаем сам путь, который привел его из точки А в точку Б. Уже звучат призывы к тому, чтобы сделать работу ИИ более прозрачной и понятной, и это один из главных принципов, на которых Европейский союз сосредоточил свой подход к вопросу его развития.

Важность защиты данных будет возрастать

В последние несколько лет защите данных уделяется большое внимание. ИИ добавляет сложности и в этой области. Поскольку системы искусственного интеллекта требуют огромного количества данных, они станут своеобразной валютой, которую будут высоко ценить как частные компании, так и целые государства. Необходимо, чтобы люди знали об этом, а также о том, каким образом их данные могут быть использованы, иногда даже им в ущерб. Одним из ярких примеров является алгоритмическая ценовая дискриминация, когда в зависимости от собранных данных определенные сайты могут показывать разным клиентам разные цены.

Законодательство изменится

Все вопросы, которые обсуждались до сих пор, безусловно, приведут к изменениям в законодательстве. Существующие законы будут обновляться для обеспечения отражения фактических изменений, связанных с расширением применения ИИ, а для заполнения возможных пробелов будут создаваться новые.

Сегодня в Европе на конечный вид новых законов в значительной степени влияют частные компании, которые уже сейчас очень громко заявляют о своих потребностях и их предпосылках. Общественные организации и граждане стран должны использовать свое право голоса и принять активное участие в регулировании применения ИИ как на европейском, так и на национальном уровнях.

Образование, рабочие места и автоматизация

Хотя цифры все еще обсуждаются, уже ясно, что ИИ создаст миллионы новых рабочих мест и одновременно приведет к исчезновению множества других. Новые рабочие места потребуют совершенно иных навыков. В результате рынок труда изменится кардинально, и система образования должна вводить соответствующие изменения, чтобы будущие поколения могли успешно существовать в эпоху искусственного интеллекта.

Риски и возможности

Для каждой организации и каждого человека в отдельности ИИ несет определенные риски, некоторые из которых мы уже обсудили выше. Но кроме рисков, ИИ также предлагает и возможности. Важно иметь информацию об обеих сторонах этой медали. В плане возможностей ИИ может обеспечить новые направления работы, новые источники финансирования и множество новых способов повысить качество и скорость работы.

Привлечение и сбор средств

ИИ — это инструмент, который, безусловно, может быть использован во благо. Благотворительные организации и НПО могут использовать ИИ, чтобы повысить эффективность взаимодействия со своими сторонниками и стимулировать сбор средств. Отличный пример — чат-бот Yeshi, созданный компанией Charity: Water для взаимодействия с потенциальными сторонниками через Facebook.

Совсем недавно в докладе, финансируемом Фондом Билла и Мелинды Гейтс AI4Giving, были рассмотрены способы, с помощью которых ИИ может повлиять на некоммерческий сектор в разных аспектах: от расширения возможностей сбора финансов до улучшения понимания того, что конкретно мотивирует спонсоров поддерживать ту или иную организацию.

А вот что говорит по поводу взаимодействия с искусственным интеллектом социальный инвестор и предприниматель Дэвид Городянский, главный исполнительный директор компании AnchorFree, разработчика Hotspot Shield, бесплатного программного обеспечения для организации виртуальной частной сети.

«Большой риск искусственного интеллекта заключается в том, что ИИ обучает себя, эксплуатируя личные данные людей (часто без их согласия), а потом с этими знаниями заменит миллионы рабочих мест, и миллионы людей останутся без работы. Важно взаимодействие общества и государства, чтобы построить грамотные институты контроля ИИ, защиты личных данных и воплощения новых методов распределения ресурсов для людей, которые потеряют работу из-за ИИ (например, универсальный базовый доход). Инвесторам, обществу и государству нужно думать про новую отрасль — „работу будущего“. Большой возможностью в этой отрасли будет обучение людей новым специальностям, которые не сможет заменить ИИ».

Статью комментирует Вячеслав Бахмин — правозащитник, сопредседатель Московской Хельсинкской группы, российский дипломат. Также Вячеcлав Иванович является участником Карты лидеров изменений в социальной сфере — СоцЧейн, подготовленной Центром содействия инновациям в обществе СОЛь.

В ответ на вопрос «Как вы считаете, есть ли место для таких проектов, как The Good Lobby, в России?» Вячеслав Бахмин говорит: во-первых, такие проекты уже есть и их довольно много. В том, что они нужны, даже не стоит сомневаться.

Сегодня важно, чтобы некоммерческие организации понимали, в каком контексте они живут. Понимали, что есть и мировой контекст, а не только страновой или региональный. НКО часто не хватает такого взгляда, потому что они в большинстве своем заняты ежедневной рутинной работой.

Конечно, надо иметь в виду существование искусственного интеллекта и понимать, какие плюсы и минусы он несет. Однако есть такой парадокс: знания сами по себе не меняют поведение человека. Человек может знать и понимать все, но вести себя так, как вел раньше. Так что особо полагаться на просвещение я бы не стал. Я бы полагался на практики вовлечения людей в конкретные дела — зеленые и экологические инициативы или в обсуждение проблемы контроля за разработками искусственного интеллекта, каким образом можно повлиять на то, что делают ученые и технологи.

Но чисто практически авторы статьи рассказывают об угрозах, которые несет искусственный интеллект, — и в целом люди понимают эти угрозы. Свыклись с ними и живут с этим каждый день, и уже не очень пугаются (хотя пугающие конспиративные теории, как мы понимаем, появляются ежечасно). Например, к такой «пугалке» мы можем отнести и COVID-19, который, как нам рассказывают, придуман, чтобы помешать нашей замечательной жизни «в тихом болоте». С этим, конечно, ничего не сделаешь — тем не менее прекращать стараться что-то изменить не надо. Имеющий уши да услышит, а имеющий голову это услышанное пусть попытается использовать в своей жизни.

Автор: Александру Чирчумару (Alexandru Circiumaru). Оригинал статьи можно прочитать здесь.

Материал подготовил Центр содействия инновациям в обществе СОЛь.