[]

Контент от ИИ: какие риски несет цифровое авторство?

Допущенные искусственным интеллектом ошибки привели к печальным последствиям, что стало поводом задуматься об угрозе подобного контента для людей. О рисках сгенерированной ИИ информации, способах минимизации негативных последствий от ее использования и сферах, где эта проблема стоит наиболее остро – в материале IT-World.

Контент от ИИ: какие риски несет цифровое авторство?
© It-world

Какие риски несет генерации контента при помощи ИИ

Сегодня уже многие понимают, что генерация контента с использованием искусственного интеллекта предполагает целый ряд рисков. Если говорить о текстовом контенте, то история с книгой по идентификации грибов, которая содержала опасные ошибки – яркий пример распространения неверной или опасной информации, сгенерированной ИИ.

Кроме того, недавно в соцсетях завирусились видео, в которых пользователи высмеивают ответы, сгенерированные Google AI. Например, на вопрос, как долго можно смотреть на солнце без вреда для глаз, ИИ ответил, что в течение 5-30 минут пристально, и это будет полезно для вашего здоровья. И таких абсурдных, а иногда и опасных для здоровья примеров пользователи приводят десятки.

Также большой риск представляет сгенерированный ИИ видеоконтент, в том числе дипфейки – реалистичная подмена видеоматериалов, созданная нейросетями. Иногда подобные видео созданы так реалистично, что невооруженным глазом невозможно понять, показывают ли нам реального человека или сгенерированного ИИ.

Один из известнейших примеров использования дипфейк-видео, сгенерированного нейросетью – случай с известным актером Томом Хэнксом, когда изображение знаменитости использовалось для рекламы стоматологических услуг без его согласия.

ИИ не способен к самостоятельному обучению и не представляет угрозы

Конечно, такая реклама вызвала широкий общественный резонанс, поскольку поднялся серьезный вопрос о защите прав изображений в интернете и использовании технологии на базе искусственного интеллекта для недобросовестных целей.

Если дипфейки перейдут на более высокий уровень качества, то могут использоваться, например, в политике для подрыва доверия к чиновникам, общественным деятелям, военным и политическим лидерам, а также при создании ложных новостных сюжетов, что может привести к информационному хаосу. Вероятно, в будущем мы с этим еще столкнемся.

В каких сферах проблема сгенерированного ИИ контента стоит особенно остро

Проблема недостоверного и опасного контента, сгенерированного нейросетями, особенно остро стоит в таких сферах, как медицина, фармацевтика и образование. Вероятно, в обозримом будущем список будет расширяться. Но сегодня наибольшую угрозу представляют именно ложные медицинские диагнозы, полученные путем анализа данных нейросетями.

В СМИ публиковалось много новостей, в которых журналисты рассказывали, как ИИ быстро поставил точный диагноз, чего годами не могли сделать врачи. Конечно, медики могут пользоваться нейросетями, но только как вспомогательным инструментом. И сгенерированные данные нужно тщательно проверять, основываясь на экспертных знаниях и опыте, полученном в ходе обучения и врачебной практики.

Одним из реальных примеров ложных медицинских диагнозов, полученных с помощью нейросетей, является случай, связанный с алгоритмами для диагностики рака. В 2019 году группа исследователей из Великобритании и других стран протестировала систему на основе искусственного интеллекта, разработанную для анализа маммограмм. Хотя алгоритм показал высокую точность в диагностике, в нескольких случаях он делал ошибки, выставляя ложные положительные или ложные отрицательные результаты.

Некоторые исследования обнаружили, что AI-системы могут игнорировать клинический контекст, что может привести к неправильной интерпретации данных и, как следствие, к ошибочным диагнозам. Например, если система не правильно учтет историю болезни пациента или особенности его состояния, это может привести к непредусмотренным последствиям, таким как пропущенные случаи рака или ненужные биопсии.

Эти инциденты подчеркивают важность человеческого вмешательства в процесс диагностики и необходимость тщательной проверки решений, принятых нейросетями, особенно в критических областях, таких как медицина.

Страшно представить, к чему может привести лечение, основанное только на диагнозах и заключениях нейросетей – опять же, вспоминаем пример с книгой о грибах.

Еще один пример касается использования ИИ в беспилотном управлении автомобилями. Так, в 2018 году компания Uber тестировала беспилотную машину в городе Темп (штат Аризона, США). В ходе испытания автомобиль насмерть

сбил женщину, поскольку была снижена чувствительность к распознанию опасных объектов для предотвращения ложных срабатываний.

Также можно вспомнить случаи с компанией Tesla, которая периодически фиксирует ДТП, в том числе со смертельным исходом. Например, одна из таких аварий произошла в 2018 году, когда пострадал водитель, ехавший в машине с включенным автопилотом, который не справился с управлением на сложном участке. После таких случаев «сырые» системы автопилотирования дорабатывались.

Конечно, за автопилотом на базе искусственного интеллекта будущее, однако внедрение таких сложных требует кропотливой работы во избежание подобных инцидентов.

Как минимизировать риски от сгенерированного ИИ контента?

Чтобы минимизировать риск негативных последствий от использования контента, сгенерированного нейросетью, нужно проверять любую информацию, созданную на базе искусственного интеллекта. Вероятно, в этом помогут специальные сервисы, которые нужно внедрить в самые чувствительные сферы – ту же медицину.

Также можно использовать технологии, которые определяют сгенерированный ИИ текст, чтобы проверять его, фильтровать или вообще не пропускать, например, для публикации в СМИ. Подобные технологии уже существуют в открытом доступе: они определяют не только сгенерированный нейросетью текст, но и распознают дипфейки.

Если смотреть на вопрос глобально, то для минимизации рисков нужно развивать у будущего поколения навыки критического мышления: например, вводить соответствующие предметы в школьную программу. Благодаря критическому мышлению человек сможет фильтровать информацию, используя инструменты для ее проверки. Думаю, что это важный аспект, которому пока не уделяют должного внимания.

Кроме того, авторы контента, созданного нейросетью, должны об этом сообщать — например, указывая на той же книге «сгенерировано с использованием ИИ». А люди, видя такое сообщение, должны более критично относиться к предлагаемому чтиву. Конечно, в первую очередь речь идет не о художественных произведениях, а о книгах наподобие «Грибы Великобритании: руководство по сбору безопасных и съедобных грибов», которая и стала причиной отравления английской семьи.

В каких сферах генерацию контента можно запретить?

Генерация контента при помощи ИИ может быть запрещена в сферах, где высока цена ошибки. Например, недостоверные сведения, сгенерированные нейросетью, могут привести к необратимым последствиям для жизни и здоровья людей, если будут использоваться медиками и фармацевтами.

Если смотреть на вопрос еще шире, то можно также упомянуть юриспруденцию, образование и журналистику. Например, создание юридического контента без участия квалифицированного юриста может привести к некорректной интерпретации законов и правовых норм.

В образовании вообще нужно достоверно проверять буквально каждое слово в учебных пособиях, поэтому использование ИИ для генерации таких материалов крайне нежелательно. В журналистике сгенерированный ИИ контент может привести к распространению фейковых новостей и дезинформации.

Как подобный запрет можно реализовать на практике?

Для реализации на практике запрета использования ИИ в некоторых сферах важно развивать тесное международное сотрудничество, чтобы создать единые нормативы и стандарты, которые бы регулировали вопрос использования искусственного интеллекта глобально. И потом, исходя их результатов международного сотрудничества и обмена опытом, формировать определенные требования к безопасности использования нейросетей на местах.

В целом использование искусственного интеллекта способно значительно улучшить различные аспекты человеческой жизни, однако для этого важно учитывать правовые, социальные и этические аспекты его внедрения.

Конечно, повсеместное распространение ИИ будет только масштабироваться, поэтому каждый из нас должен понимать все возможные последствия от использования искусственного интеллекта и самостоятельно фильтровать сомнительный контент. Как минимум — не собирать грибы только по книге, сгенерированной с использованием нейросетей и содержащей ошибки.