Правительство США опубликовало билль об этичности Искусственного Интеллекта
Документ, описывающий основные принципы создания этичного искусственного интеллекта (ИИ) были опубликованы 4 октября на официальном сайте Белого дома whitehouse.gov. Проблема прозрачности алгоритмов, используемых системами на основе ИИ является резонансной в последнее время. Общественное мнение требует обезопасить конечных пользователей от возможной дискриминации и злоупотребления персональными данными со стороны ИИ. Недавно Китай принял ряд законов, вынуждающих крупных гигантов китайского IT рынка раскрывать свои алгоритмы. Их примеру теперь следуют США. В документе говорится, что проблемы, связанные с ИИ хорошо известны: нестабильности в системах ухода за пациентами, дискриминация в системах найма, кредитования, страхования. Проект предлагает следующие пять принципов формирования систем. 1. Безопасность и эффективность. Подразумевается защита от злоупотребления данными и защита от нанесения вреда пользователям системы, если такой вред можно предсказать. 2. Алгоритмическая защита от дискриминации. Система должна быть спроектирована и использована справедливо. 3. Конфиденциальность данных. Встроенные в систему средства безопасности, должны защищать пользователей от утечки данных и позволять им распоряжаться тем, как эти данные используются. 4. Уведомление и объяснение. Люди должны быть проинформированы о том, как работает система и как она помогает им достичь их целей. 5. Человеческие альтернативы. Автоматизированные сервисы должны включать возможность обращения к человеку вместо ИИ. «Проект Билля о правах в области искусственного интеллекта — это руководство для общества, которое защищает всех людей от этих угроз и использует технологии таким образом, чтобы укрепить наши высшие ценности» — заявлено в документе. Однако после закона, принятого в Китае, данный проект выглядит скорее как попытка держаться в тренде мировых правозащитных течений. Он, также как и китайский вариант, направлен на регулирование процесса взаимодействия крупных IT корпораций и пользователей их продуктов, но никак не затрагивает, например, сбор и распознавание биометрии граждан в пользу государства или использование ИИ в военных целях.