Люди сняли блок на ИИ, взломав его с помощью картинок с невидимым подвохом
Американские учёные обнаружили, что современные системы искусственного интеллекта, анализирующие изображения, могут быть обмануты с помощью альфа-канала — слоя данных, отвечающего за прозрачность изображения.
Альфа-канал, который управляет прозрачностью изображений, часто игнорируется при создании ИИ-алгоритмов для анализа данных, что делает его уязвимым к атакам. Это открывает возможность кибератак в таких критически важных областях, как медицина и автопилот.
Под руководством доцента Гвиневры Чэнь была разработана методика атаки AlphaDog, использующая эту слабость.
Ученые создали 6500 изображений и проверили их на 100 ИИ-моделях, включая 80 систем с открытым кодом и 20 облачных платформ. Результаты показали, что схема AlphaDog особенно эффективна для манипуляции изображениями в оттенках серого.
Например, в системах автопилота альфа-канал может искажать распознавание дорожных знаков, что несет риск аварий.
В медицине он способен повлиять на анализ рентгеновских снимков или МРТ, что может привести к ошибочным диагнозам. Также угроза распространяется на системы распознавания лиц, ставя под удар конфиденциальность и безопасность объектов.
Чтобы устранить риски, ученые поделились результатами с крупными компаниями, такими как Google, Amazon и Microsoft, надеясь на доработку их ИИ-систем, сообщает 3dnews.
Ранее ИА МедиаПоток рассказал, что здоровье людей ухудшает повсеместный шум транспорта.