Искусственная этика: юридические рамки использования искусственного интеллекта
В 2023 году сразу несколько государств подготовили законопроекты, которые должны задать юридические рамки использования искусственного интеллекта. Попытки составить подобный универсальный этический кодекс успехом не увенчались. Пока такого документа нет, вместе с управляющим директором Центра человекоцентричного ИИ Сбербанка Андреем Незнамовым рассказываем об этических дилеммах, которые человечеству приходится решать прямо сейчас.
Можно ли использовать ИИ в научной работе
Генеративный искусственный интеллект для создания контента, например, текстов или изображений использует модели машинного обучения. Среди известных систем этого типа — ChatGPT и GigaChat, которые среди прочего подходят для написания научных работ. Этический аспект такого использования технологий в России начали активно обсуждать зимой 2023 года. Тогда студент РГГУ Александр Жадан рассказал, что защитил диплом, созданный с помощью ChatGPT. ИИ сгенерировал 60 страниц работы, введение, заключение и список литературы. Оригинальность текста составила более 70%.
После признания Жадана в соцсетях пользователи начали спорить об этичности поступка студента и необходимости лишить его диплома. Дискуссию подхватили СМИ и образовательные учреждения. Документ об окончании вуза Жадану все-таки выдали, а его история стала прецедентом. Многие университеты сразу же решили уточнить правила использования ИИ при написании учебных и научных работ. Причем подходы в разных вузах оказались разными: одни вводили на нейросети запрет, другие устраивали конкурсы на лучшую работу, созданную с их помощью.
«Самое худшее, что можно сделать для решения этого вопроса, — запретить использование генеративного ИИ во всех вузах по всей стране, — комментирует Андрей Незнамов. — Подход здесь должен быть индивидуальным, право регулирования стоит оставлять за вузом. Думаю, что если благодаря ИИ удастся решить какую-нибудь из “открытых” математических задач, никто не расстроится. Этическая проблема может возникнуть, если при этом выдать “достижение” нейросети за свое».
Кто отвечает за решения ИИ в беспилотных автомобилях
Одна из самых известных моральных дилемм в мире — «проблема вагонетки», сформулированная философом Филиппой Фут в конце 60-х годов XX века: к рельсам привязаны пять человек, приближающийся поезд вот-вот их задавит, спасти людей можно, только переключив стрелку и отправив состав по другому пути. Однако и там к рельсам привязан человек — правда, один. Разумеется, правильного решения в этом мысленном эксперименте нет. Однако общество ждет его от искусственного интеллекта, когда речь идет об использовании беспилотных автомобилей.
«Требовать от ИИ решения этических дилемм не стоит — главный принцип работы системы заключается в том, чтобы минимизировать вред. Кто именно при этом спасется, кто пострадает или даже погибнет — машина не выбирает», — считает Андрей Незнамов.
Последние несколько лет человечество размышляло над разнообразными этическими коллизиями, с которыми ИИ может столкнуться «на дороге». Если авария неизбежна, то о чьей безопасности система должна заботиться в первую очередь: водителя и пассажиров или пешеходов? Может ли беспилотный автомобиль нарушать правила дорожного движения, если это спасет чью-то жизнь? Ученые, занимающиеся биоэтикой, готовы идти еще дальше. Например, в прошлом году профессор Принстонского университета Питер Сингер вместе с коллегами написал статью, в которой среди прочего задал вопрос: как должен «поступать» искусственный интеллект, когда от его решения зависит жизнь животного.
«Сейчас возникают проблемы и несколько иного характера. Когда водители видят на дороге беспилотный автомобиль, зачастую они пытаются его подрезать, обогнать или максимально приблизиться — для того чтобы понять, как такая машина устроена и как она будет “вести себя” в разных ситуациях, — рассказывает Незнамов. — Да и в целом можно сказать, что поиск ответов на многие этические вопросы, связанные с использованием беспилотного транспорта, еще впереди. Эта отрасль фактически только начинает развиваться».
Этично ли «воскрешать» умерших с помощью технологий искусственного интеллекта
В 2020 году компания Microsoft запатентовала технологию, позволяющую создавать чат-боты, имитирующие разговор с человеком, которого нет в живых. Информацию для этого ИИ берет в том числе из соцсетей.
О том, может ли такая практика считаться полезной, рассуждают психологи. А о том, законна ли обработка «открытых» данных человека, не способного на это согласиться или этому воспрепятствовать, спорят юристы.
«Как ни странно, этот вопрос в меньшей степени правовой и в большей — этический, — отмечает Андрей Незнамов. — Кому принадлежат сообщения в мессенджере или посты на открытых страницах соцсетей, на которых может обучаться ИИ? Фактически никому. Здесь возникают, скорее, моральные дилеммы. Этично ли это по отношению к умершему? Правильного ответа нет, каждая конкретная ситуация требует отдельного рассмотрения».
К использованию технологии в таком ключе действительно остается немало этических вопросов. Ведь даже бот, обученный на огромном количестве информации о человеке, не может «знать», как прототип повел бы себя в той или иной ситуации. По сути технология позволяет вложить в уста умершего не только то, чего он никогда не говорил, но и то, чего никогда бы не сказал.
«В любом случае, важно не вводить никого в заблуждение и маркировать имитацию. Это особенно актуально, когда речь идет о создании чат-ботов, подражающих известным людям. Условно говоря, если в переписке с вами “Лев Толстой” напишет продолжение “Войны и мира”, для его публикации нужно будет подробно изложить все обстоятельства создания произведения», — поясняет Незнамов.
Что, если ИИ отнимет у людей работу
Потеря работы — одно из главных опасений, возникших из-за повсеместного внедрения искусственного интеллекта. По мнению некоторых исследователей, ИИ автоматизирует работу 25% населения развитых стран. Причем заменить он сможет не только тех, кто занят физическим трудом, но и административный персонал, а также юристов и менеджеров. В Международной организации труда отмечают, что в ближайшие десять лет в части государств окажутся не нужны специалисты, работу которых можно назвать канцелярской — все те, кто сортирует документы или отвечает на телефонные звонки. Чем займутся люди, которых с рабочих мест вытеснит ИИ? Кто будет обучать их новым профессиям? За чей счет и как быстро они смогут переквалифицироваться? Ответы на все эти вопросы общество ищет прямо сейчас.
«ИИ — далеко не первое изобретение человечества, которое, с одной стороны, “убивает” часть профессий, а с другой — создает немало новых, — успокаивает Андрей Незнамов. — Наверное, самый яркий пример — автомобили: их широкое распространение фактически уничтожило индустрию передвижения на лошадях. Множество людей лишилось заработка, но в то же время появились рабочие места для автомехаников, дорожных инженеров и так далее».
Журнал Science в 2022 году назвал «креативность ИИ» одним из прорывов года, обозначив тем самым, что искусственный интеллект оказался способен заниматься и творческой работой, до сих пор считавшейся исключительно «человеческой»: от создания иллюстраций до сочинения музыки. Впрочем, ценность таких произведений все еще вызывает вопросы, поэтому сильно тревожиться представителям соответствующих профессий, по мнению экспертов, пока не стоит.
«Единственное, что отличает современный опыт от прошлого — быстрая скорость смены социальных парадигм. Жизнь условных ямщиков менялась постепенно, а вот жизнь тех, кого способен заменить ИИ, может измениться буквально за один день, — предостерегает Незнамов. — Люди должны быть готовы быстро переучиваться. Можно долго рассуждать о том, кто за это отвечает. Я же думаю, что человеку стоит самому заботиться о своем будущем».
Стоит ли развивать ИИ, если в будущем он может навредить человечеству
Все, о чем говорилось выше, — примеры этических коллизий, возникающих при использовании слабого или специализированного искусственного интеллекта (международное обозначение: NAI — narrow artificial intelligence). По сути, технологии, созданные на базе такого ИИ, умеют решать только те задачи, под которые «заточены».
Ученые говорят и о другом виде искусственного интеллекта — сильном или общем (AGI — artificial general intelligence). Пока его не существует, но предполагается, что такой ИИ будет самообучаем, а потому сможет работать не только над тем, для чего изначально создавался. По прогнозам экспертов, AGI будет обладать сознанием и достигать самостоятельно поставленных себе целей. Описание возможных рисков напоминают не аналитические статьи, а выдержки из фантастических романов: исследования, посвященные этому вопросу, фокусируются на сценариях, при которых сильный ИИ перестанет нуждаться в людях вовсе.
О том, что такое развитие событий вполне вероятно, регулярно рассуждают, например, глава Tesla и SpaceX Илон Маск и сооснователь Apple Стив Возняк. В прошлом году они даже подписали открытое письмо, смысл которого сводится к следующему: результаты дальнейшего обучения нейросетей могут представлять серьезную опасность для мира.
«Существует много опасений насчет того, что AGI станет последним изобретением человечества. Раньше люди говорили: сильного искусственного интеллекта не будет вовсе. Тех, кто предостерегал от его создания, называли алармистами и фантазерами. Сейчас появление сильного ИИ уже не кажется чем-то фантастическим, это вполне вероятное событие, — соглашается с экспертами Андрей Незнамов. — Контролировать такую технологию по “старым правилам” не получится — для этого, очевидно, потребуется целая инфраструктура. Как ее создать — нетривиальный вопрос и, пожалуй, один из главных. Ответа на него пока нет».