Компании из России оценили опасения Маска и Возняка из-за ChatGPT

<p><strong>Развитие ИИ не стоит останавливать, но следует ограничить его правилами и этическим сводом, считают опрошенные РБК топ-менеджеры российских ИТ-компаний. Ранее приостановить тренировки систем мощнее GPT-4 призвали Маск и Возняк.</strong><br /> Для мощного искусственного интеллекта (Artificial intelligence, AI) необходимо разработать регулирование и этические правила, вместе с тем скорость его замещения людей определенных профессий сильно переоценена. Об этом заявил РБК старший вице-президент по инновациям фонда "Сколково" Кирилл Каем, комментируя открытое письмо основателей технологических компаний с призывом приостановить обучение ИИ.<br /> <br /> "Разумеется, все эти краеугольные изменения потребуют изменения как регулирования разработок, внедрения, правил использования AI, так и принятие определенного свода этических вопросов. Возможно, авторитеты, подписавшие открытое письмо, хотят дать первый и сильный толчок таким изменениям", — сказал Каем. По его мнению, в дальнейшем принимать и изменять правила нужно будет постоянно, чтобы они успевали за прогрессом и новыми возможностями ИИ. <br /> <br /> Каем согласился с авторами письма в том, что искусственный интеллект поменяет рынок труда, но скорость этого замещения сейчас значительно переоценена. "Это не один десяток лет. Во-вторых, это изменение сфокусирует рынок труда на других профессиях, где AI пока не силен: творческие специальности или специальности, которые требуют большого вовлечения, эмпатии — медицинская помощь в части ухода и общения с пациентами, образование, часть индустрии развлечений", — заявил он. На стыке ИИ — человек, возникнет ряд новых специальностей, связанных с обучением, контролем и принятием ответственных решений, допустил он.<br /> <br /> Каем считает, что во многих отраслях ИИ останется помощником, будет анализировать большие объемы данных, предлагать сценарии, рассчитывать вероятности, но конечное решение будет оставаться за человеком.<br /> <br /> Технический директор Smart Engines (разрабатывает программное обеспечение для распознавания документов) Дмитрий Николаев считает, что властям следовало бы ограничить исследования ИИ с целью защиты базовых прав людей, "ввести понятные правила, которые запретят вредоносное использование ИИ". Он отметил, что при использовании искусственного интеллекта отсутствует законодательная база на запрет их применения в мошеннических целях, "проведение психологических атак на людей". Кроме того, продолжил Николаев, хаотичное развитие ИИ несет прямой экологический ущерб, поскольку на обучение моделей расходуются мегаватты электроэнергии. При этом, подчеркнул Николаев, пауза в обучении мощного ИИ на полгода, которую предлагают авторы письма, ничего не изменит, поскольку остановить прогресс невозможно.<br /> <br /> Руководитель департамента машинного обучения дирекции по ИИ и цифровым продуктам "ВымпелКома" (работает под брендом "Билайн") Дмитрий Ермилов призвал думать не об остановке развития искусственного интеллекта, а об ограничении использования таких систем. "То есть не предоставлять открытый доступ всем желающим к таким инструментам, а давать его, например компаниям для промышленного использования. Такой такой барьер позволит оградить общество от многих рисков, которые возникают при работе обычных пользователей с нейросетями", — отметил Ермилов.<br /> <br /> Ранее на сайте Future of Life появилось открытое письмо, которое подписали более 1 тыс. человек, в том числе основатель Tesla Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк. Они призвали прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Подписанты указали, что системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять опасность для общества и задались вопросом, должны ли люди "рисковать потерей контроля над цивилизацией".<br /> </p>