Эксперт сообщил о риске раскрытия россиянами данных через поддельные нейросети

Более 10 миллионов россиян могут непреднамеренно раскрыть конфиденциальные данные из-за использования поддельных иностранных нейросетей, таких как ChatGPT и Dall-E, через сторонние сервисы.

Эксперт сообщил о риске раскрытия россиянами данных через поддельные нейросети
© РИА Новости

Более 10 млн россиян рискуют раскрыть свои конфиденциальные данные при использовании поддельных иностранных нейросетей, таких как ChatGPT, Dall-E и Midjourney, сообщает РИА «Новости». Директор по LLM-продуктам MTS AI Сергей Пономаренко отметил, что пользователи, обращающиеся к этим моделям через сторонние сервисы, могут столкнуться с открытыми моделями низкого качества и утечкой личной информации.

Из-за сложностей с доступом к международным сервисам, в том числе проблем с оплатой, россияне становятся жертвами мошенников, которые создают фальшивые чат-боты и сайты. Эти мошенники, обещая «упрощенный» доступ к системам, предоставляют пользователям минимальные версии продуктов, которые уступают оригиналам по качеству.

Эксперт напомнил о важности цифровой грамотности при работе с искусственным интеллектом. Для безопасного взаимодействия с технологией необходимо понимать алгоритмы работы нейросетей, их ограничения и особенности. Пономаренко подчеркнул, что не стоит предоставлять персональные данные и конфиденциальную информацию ненадежным сервисам.

Кроме того, при работе с корпоративными данными следует использовать только проверенные и одобренные руководством чат-боты и сервисы. Генеративные сети могут быть обучены на устаревших данных, поэтому важна проверка результатов через независимые источники.

Как писала газета ВЗГЛЯД, власти в Казани решили использовать искусственный интеллект для выявления сосулек на зданиях, что поможет избежать несчастных случаев. В Москве наградили лауреатов премии «Лидеры ИИ», которая поощряет внедрение передовых технологий. Искусственный интеллект назвали ключевым компонентом для обеспечения технологического суверенитета России.