Войти в почту

Киберэксперт: нейросети могут помогать мошенникам

Нейросети могут помогать мошенникам. В связи с этим важно соблюдать правила цифровой безопасности. Об этом рассказал руководитель направления анализа защищенности компании Уральского центра систем безопасности Сергей Краснов, передает Daily Moscow.

Киберэксперт: нейросети могут помогать мошенникам
© Реальное время

По его словам, ChatGPT имеет пять основных опасностей. К ним относится возможность распространения фейковых новостей. С помощью чат-бота злоумышленники могут создавать правдоподобные тексты.

— Чат-бот также может быть использован для создания текстов, которые содержат оскорбления, травлю, нападки на личность, угрозы, шантаж и другие формы насилия, — отметил Краснов.

Также мошенники могут создавать фишинговые письма и сообщения, получать персональную информацию и данные банковских карт с помощью чат-бота. ChatGPT используется и для создания и распространения контента без разрешения правообладателя.

Фото: realnoevremya.ru

Необходимо проверять информацию в разных источниках, придумывать разные пароли и подключать двухфакторную аутентификацию, посоветовал эксперт. Кроме того, нельзя передавать свои данные третьим лицам.

Напомним, социальная сеть "ВКонтакте" занимается разработкой сервиса для распознавания фейков на фото и видео. Предполагается, что пользователи смогут самостоятельно проверить загруженные на платформу фотографии или ролики на наличие манипуляций, связанных с лицом. Это касается изменения в редакторах или замены одного человека на другого, пояснили в пресс-службе.

Подписывайтесь на telegram-канал и группу "ВКонтакте" "Реального времени".