Войти в почту

Нейросеть предупредила ученых об опасности искусственного интеллекта

В Оксфордском университете организовали дискуссию, на которую в качестве одного из участников "пригласили" систему искусственного интеллекта (ИИ). В ходе беседы нейросеть рассказала, что может представлять для человечества опасность. О том, стоит ли бояться восстания машин, рассказывает научный обозреватель Николай Гринько. Дискуссионное общество Оксфордского университета (или "Оксфордский союз") – это студенческий клуб, организующий дебаты на самые разные темы. На его заседания в разное время приглашали Рональда Рейгана, Билла Клинтона, Далай-ламу, Элтона Джона, Майкла Джексона, Диего Марадону и многих других выдающихся деятелей политики, культуры и искусства. Тема очередного заседания была озаглавлена так: "Может ли искусственный интеллект быть этичным?". Доктор Алекс Коннок с профессором Эндрю Стивеном решили подключить к дискуссии систему машинного обучения. Нейросеть работала на базе языковой модели Megatron-Turing NLG и была обучена на материалах из Википедии, новостях и комментариях пользователей портала Reddit. "Мегатрон" способен понимать прочитанное и рассуждать на естественном языке, генерируя логические выводы на основе текста. Участники дискуссии спросили систему, что она думает об этичности искусственного интеллекта и будущем человечества, и она ответила так: Фрагменты конференции были опубликованы в интернете, и многие СМИ выпустили их с пугающими заголовками вроде "Искусственный интеллект пообещал уничтожить человечество!". Но, прежде чем делать выводы, нужно учесть несколько моментов. Во-первых, система "Мегатрон" создана для генерации осмысленного текста на основе различных публикаций, а вовсе не для долгосрочного прогнозирования в какой бы то ни было области. Проще говоря, алгоритм всего лишь умеет компилировать ответы на вопросы по тексту. Представьте себе газетную статью, разрезанную на мелкие кусочки – буквально по одному слову. В компьютерную программу, грубо говоря, загрузили несколько миллионов измельченных статей и обучили составлять из этих кусочков осмысленный текст, так, чтобы его можно было принять за речь живого человека. Но способности делать экономические прогнозы, интерпретировать тенденции или хотя бы разбираться в цветоводстве у этой нейросети нет и быть не может – такие навыки в ней не запрограммированы. Бессмысленно спрашивать у нее: "Какая погода будет завтра?" – она не обладает такой информацией. Точно так же нет никакого смысла интересоваться у "Мегатрона" будущим человечества – он ничего не знает об этом. Он умеет только "перемешивать кусочки газет". Если продолжать эту аналогию, то стоит повнимательнее присмотреться к содержанию тех "газетных статей", на основе которых система пытается делать выводы: в списке значатся Википедия, новости и комментарии в Сети. Все они написаны живыми людьми, а общество сегодня уверено, что искусственный интеллект опасен. Журналисты, ученые, футурологи, обычные пользователи в один голос предупреждают друг друга о том, что ИИ скоро станет таким умным, что уничтожит человека как вид. Противоположного мнения придерживаются так мало людей, что их голоса тонут в алармистских запугиваниях: "Искусственный интеллект уничтожит людей!" Совершенно логично, что Megatron-Turing NLG, делающий выводы из прочитанных текстов, будет придерживаться той же точки зрения. Ему просто неоткуда взять другую. Если в разрезанной статье не встречается слов "рыжий" и "конопатый", программа ни за что не сможет составить из кусочков стишок про лопату и дедушку. Если 99% текста предупреждает об уничтожении человечества роботами, "Мегатрон" не сможет сказать, что этого не произойдет. Загрузите в машину что-нибудь другое и спросите еще раз – наверняка ответ поменяется. Однако доверять ему все равно глупо: это всего лишь отдельные слова на газетных обрывках. Хотя…

Нейросеть предупредила ученых об опасности искусственного интеллекта
© Москва24