Не попасть в нейросети

15 ноября в Курске в центре «Мой бизнес» прошёл круглый стол, посвящённый вопросам этики использования искусственного интеллекта. Своими мнениями на этот счёт поделились политики, предприниматели, представители системы образования, здравоохранения, церкви и общественности. Руководитель Центра управления регионом Курской области Михаил Шумаков оценивает новшество положительно. Он уверен, что искусственный интеллект и нейросети – рабочий инструмент и помощник в интеллектуальном труде. – Сегодня, например, у специалиста по SMM очень много работы, – отметил он. – И нейросети помогают ему в анализе, проверке данных, быстро и эффективно анализируют объёмы информации, помогают придумать хештеги, которые прежде нигде не использовались. Например, texttospeech – очень удобный инструмент, который позволяет перевести текст в аудио. И это русская нейросеть! Представьте: человек в Горшеченском районе снял видео, и его проще озвучить с помощью искусственного интеллекта, если нет, например, качественного микрофона. Я не говорю о том, что сценарии фильмов должны писать ИИ, но мы живём в современном мире, где нейросети помогают работать с текстовой информацией, с изображениями, с видео. Они автоматизировали многие задачи, позволяют генерировать тексты, изображения, писать тексты с нуля и многое другое. Конечно, признал докладчик, стоит быть бдительным, если ИИ поручена ответственная работа, особенно та, где важную роль играет человеческий фактор. – Нейросеть полагается на запрограммированные алгоритмы, и возможности для импровизации у неё ограничены, – продолжает Михаил Шумаков. – Мы ежедневно работаем с обращениями граждан. Каждое обращение индивидуально, и здесь мы говорим нейросетям скорее нет, чем да. В этом случае их использование уместно только для ответа на часто поступающие через открытые источники одинаковые вопросы. Как мы с нейросетью будем обращаться, какие запросы и темы будем вводить, так она и будет развиваться, по тематикам, которые вводятся. Однако его оптимизм разделили отнюдь не все участники мероприятия. Их доводы понятны: технология пока несовершенна. К примеру, каждому из нас не раз приходилось общаться по телефону с роботом-автоответчиком, который не мог справиться с вопросами и в конце концов переключал абонента на оператора. – Выдающийся учёный Алан Тьюринг в своё время писал о том, что мы сегодня называем искусственным интеллектом, – об интеллекте машинном, – напомнил протоиерей Олег Чебанов. – Тогда мысль о том, что машина через изначально заданную ей программу может сама себя усовершенствовать, казалась фантастикой, но сейчас предполагается, что ИИ может заменить композиторов, учителей… Чем стремительнее развивается в техническом, информационном плане человечество, тем больше деградирует сам человек. Это не может не вызывать нашей озабоченности. Нейросеть – это лишь маленькая ступенька к глобальной информационной революции. Главное, чтобы наш помощник ИИ не превратился в нашего рабовладельца и не загнал нас в цифровое гетто. И здесь возникает вопрос, кто будет держать в руках этого нашего помощника и как не допустить, чтобы он вышел из-под контроля. Отдельно священник предостерёг от ангажированности нейросетей, созданных на Западе. – Не исключено что наш русский герой через пару лет благодаря им будет выглядеть американский суперменом, – предположил он. – Если в библиотеке можно почерпнуть информацию, лично проанализировать её, классифицировать и сделать выводы, то ангажированная Википедия выдаёт информацию в готовом виде. Член Общественной палаты РФ, советник губернатора Курской области Александр Терновцов заметил, что в юридической практике нельзя полностью полагаться на информацию, собранную искусственным интеллектом, так как она может содержать недостоверные данные. Соответственно, вынесенное на основе их судебное решение не может считаться объективным. Подобное уже случалось в судебной практике. Так, в США уже осудили юриста, сославшегося на предложенный ИИ судебный прецедент, которого нет в природе. – Представьте, у вас есть право выбора, ваше дело в суде будет рассматриваться либо ИИ, либо судьей, что выберете? – обратился к собравшимся Терновцов. – 99 процентов студентов-юристов выбирают человеческий суд. Считаю, всё, что не имеет правового урегулирования, нужно запрещать. К тому же искусственный интеллект, уже обучаясь, начал лениться. Он откладывает работу, а человек доверяет этим данным, исходя из того, что несколько раз ИИ дал правильные ответы. А ответственность за ошибки кто будет нести? Или, допустим, автомобиль, которым управляет не человек, а ИИ, наехал на пешехода? Заместитель главного врача по развитию информационных технологий Курской областной многопрофильной больницы Татьяна Попова акцентировала внимание участников круглого стола на возможных биомедицинских рисках, когда неправильное применение ИИ в медицине может привести к ошибкам в диагностике и лечении. – В политической сфере применение ИИ может обеспечить большую эффективность и точность в различных процессах, однако существуют и риски его использования, – сказал представитель российской ассоциации криптоэкономики искусственного интеллекта и блокчейна в ЦФО Максим Беляков. – Напомню про нейросеть «Жириновский», которая была создана в 2023 году на основе публичных выступлений и интервью политика. Получилось, что Владимир Вольфович, основываясь на своих принципах, может давать интервью и с того света. Нам наглядно продемонстрировали, что сосредоточение в едином аватаре всех выступлений человека может сконструировать такую интеллектуальную модель. Хорошо это или плохо, время покажет. В любом случае эти данные были актуальны во время его жизни, на ту текущую политическую ситуацию. СКАЗАНО! – Правила использования искусственного интеллекта должны быть закреплены на уровне политики, – говорит заместитель председателя правительства Курской области Оксана Крутько. – Должны быть прозрачность и открытость его использования, также необходимо обеспечить защиту персональных данных граждан. Вероника ТУТЕНКО

Не попасть в нейросети
© Курская правда