Киберэксперт: нейросети могут помогать мошенникам
Нейросети могут помогать мошенникам. В связи с этим важно соблюдать правила цифровой безопасности. Об этом рассказал руководитель направления анализа защищенности компании Уральского центра систем безопасности Сергей Краснов, передает Daily Moscow.
По его словам, ChatGPT имеет пять основных опасностей. К ним относится возможность распространения фейковых новостей. С помощью чат-бота злоумышленники могут создавать правдоподобные тексты.
— Чат-бот также может быть использован для создания текстов, которые содержат оскорбления, травлю, нападки на личность, угрозы, шантаж и другие формы насилия, — отметил Краснов.
Также мошенники могут создавать фишинговые письма и сообщения, получать персональную информацию и данные банковских карт с помощью чат-бота. ChatGPT используется и для создания и распространения контента без разрешения правообладателя.
Необходимо проверять информацию в разных источниках, придумывать разные пароли и подключать двухфакторную аутентификацию, посоветовал эксперт. Кроме того, нельзя передавать свои данные третьим лицам.
Напомним, социальная сеть "ВКонтакте" занимается разработкой сервиса для распознавания фейков на фото и видео. Предполагается, что пользователи смогут самостоятельно проверить загруженные на платформу фотографии или ролики на наличие манипуляций, связанных с лицом. Это касается изменения в редакторах или замены одного человека на другого, пояснили в пресс-службе.
Подписывайтесь на telegram-канал и группу "ВКонтакте" "Реального времени".