Кто-то должен следить за ИИ - но не общество!
Обществу не нужно знать, как работает искусственный интеллект, чтобы доверять ему. Люди просто должны знать, что кто-то с необходимым уровнем компетентности следит за ИИ и имеет право применять к нему опредленные санкции, если он причиняет или может причинить какой-либо вред.
Доктор Бран Ноулз, старший преподаватель науки о данных в Ланкастерском университете, говорит: «Я уверен, что общество неспособно определить надежность отдельных ИИ... но оно нам для этого и не нужно. За точность работы ИИ оно не в ответе".
8 марта доктор Ноулз представил исследовательский доклад «Санкции властей: содействие общественному доверию к ИИ» на конференции ACM по справедливости, подотчетности и прозрачности (ACM FAccT). Соавтором доклада являлся Джон Т. Ричардс из IBM T.J. Исследовательского центра Уотсона, Йорктаун-Хайтс, Нью-Йорк.
В документе отмечается, что широкая общественность часто не доверяет ИИ, и это связано как с тем, как на протяжении многих лет изображали ИИ в искусстве, так и с растущим осознанием того, что за ИИ практически не осуществляется никакого контроля.
Авторы утверждают, что большая прозрачность и более доступные объяснения того, как работают системы искусственного интеллекта, воспринимаемые как средство повышения доверия, не решают проблемы недоверия к ИИ со стороны общества.
По их словам, «регулирующая экосистема» - это единственный способ, с помощью которого ИИ будет подотчетен обществу и сможет заслужить доверие людей.
«Общество обычно не беспокоится о надежности продуктов питания, авиации и фармацевтических препаратов, потому что они верят, что существует система, которая регулирует эти отрасли и наказывает за любое нарушение протоколов безопасности», - говорит д-р Ричардс.
А доктор Ноулз добавляет: «Вместо того, чтобы требовать от общества, чтобы оно набралось необходимых навыков для принятия информированных решений о том, какие ИИ заслуживают их доверия, ему (обществу) нужны гарантии, что любой ИИ, с которым оно может столкнуться, не причинит ему вреда».
Она подчеркивает критическую роль документации ИИ в создании этой надежной регулирующей экосистемы. В качестве примера в документе обсуждается работа IBM над информационными бюллетенями об ИИ - фактически, над документацией, в которой фиксируются ключевые факты, касающиеся разработки и тестирования ИИ.
Но хотя такая документация может предоставить информацию, необходимую внутренним аудиторам и внешним регулирующим органам для оценки соответствия возникающих основ для надежного ИИ, доктор Ноулз предостерегает от того, чтобы полагаться на нее в процессе прямого укрепления общественного доверия.
«Если мы не осознаем, что бремя надзора за надежностью ИИ должно лежать на высококвалифицированных регулирующих органах, то есть большая вероятность, что будущее документации по ИИ станет еще одним механизмом согласия в стиле условий и положений - чем-то, что никто не читает и понимает», - говорит она.
В документе содержится призыв к правильному пониманию документации ИИ как средства, позволяющего специалистам оценивать надежность.
«Деятельность ИИ имеет в нашем, реальном мире материальные отражения и последствия, которые влияют на реальных людей; и нам нужна подлинная ответственность для гарантирования, что ИИ, который пронизывает наш мир, помогает сделать этот мир лучше», - говорит доктор Ноулз.