Эксперт оценил публикацию об «убившем» оператора дроне ВВС США под управлением ИИ
Генеральный директор "А-Я эксперт", разработчик искусственного интеллекта Роман Душкин в разговоре с Рамблером прокомментировал публикацию газеты The Guardian об инциденте с участием беспилотника ВВС США под управлением искусственного интеллекта.
Ранее издание со ссылкой на полковника Такера Гамильтона, сообщило, что в ходе испытаний беспилотник ВВС США, управляемый искусственным интеллектом, использовал "весьма неожиданные стратегии для достижения своей цели" - принял решение "убить" оператора, чтобы тот не мешал аппарату выполнять свою задачу. Спустя некоторое время представитель ВВС США Энн Стефанек в комментарии для Insider заявила, что подобной симуляции не проводилось.
Душкин рассказал, что в дроне, о котором писала The Guardian, использовалась технология "обучение с подкреплением".
Это метод машинного обучения, предполагающий, что система искусственного интеллекта взаимодействует с некой средой, в которой она функционирует. Самая простая аллюзия на "обучение с подкреплением" - это когда в цирке дрессируют собаку. Когда собака делает что-то хорошее - дрессировщик дает ей сахар. Это положительное подкрепление. А когда собака делает что-то плохое - дрессировщик ее наказывает. Это отрицательное подкрепление. И системы искусственного интеллекта с "обучением с подкреплением" работают примерно также.
Роман ДушкинГлавный архитектор систем искусственного интеллекта исследовательского центра в сфере ИИ по направлению «Транспорт и логистика» НИЯУ МИФИ
Заявления о том, что установленная в дроне система ИИ могла самостоятельно поставить себе задачу "убить" мешающего выполнению задачи человека, некорректны, подчеркнул разработчик.
"Она действует исключительно в рамках тех возможных сценариев, которые изначально были ей разрешены... В системах ИИ заложена некая модель, которая является такой же программой, как и остальные. Другое дело, что эта модель не разрабатывается программистом, а обучается на основе предоставленных ей данных. От нее, в свою очередь, ожидаются выходные реакции. В этом смысле системы ИИ отличаются от обычных систем, которые разрабатывают программисты. Если программисты делают "белый ящик", то система ИИ - это "черный ящик". Но это не означает, что мы не можем его открыть и посмотреть, что внутри в этой черноте. Говорить о том, что у системы ИИ зародилась какая-то воля или какое-то автономное целеполагание, что она по собственной инициативе захотела что-то сделать - это нонсенс, так говорить нельзя", — сказал Душкин, дав прогноз, согласно которому в ближайшие десятилетия технических систем с автономным целеполаганием или с имитацией личности не появится.
Вместе с тем Душкин ответил на вопрос о том, учитывают ли разработчики ИИ при создании новых систем законы робототехники, сформулированные писателем-фантастом Айзеком Азимовым в своих произведениях прошлого века.
"Когда разработчикам систем искусственного интеллекта напоминают про законы робототехники Азимова, сначала они начинают смеяться, а потом сердиться. Азимов был гуманистом, и у него не было знаний о современных технологиях. Кроме того, для любого подобного закона можно придумать кучу ситуаций, в которых он работать не будет. И те, кто внимательно читал произведения Азимова, где тщательно рассматривались законы робототехники, мог заметить, что писатель сам писал о том, что какими бы законами не руководствовались - их можно и обойти. Можно придумать ситуации, в которых слепое и бездумное исполнение этих законов будет вредно", — отметил собеседник.
В России существует Кодекс этики разработчиков ИИ, а также набор регламентирующих документов и государственных стандартов, которые объясняют, как обеспечивать доверие к системам ИИ в различных областях, добавил специалист.
"Нельзя говорить о том, что, мол, зловредные разработчики создают системы ИИ, которые поработят человечество. Государство работает комплексно - и развивает технологии, и рассматривает возможные варианты их применения, ставя определенные рамки", — заключил Душкин.
Ранее американский бизнесмен Илон Маск предрек использование искусственного интеллекта в военных целях. Миллиардер заявил, что во всем мире ИИ будут использовать, прежде всего, для разработки оружия.