ru24.pro
Новости по-русски
Июнь
2022

Искусственный интеллект уличили в человеческих предрассудках

0
Американские учёные обнаружили, что некоторые модели искусственного интеллекта, обучающиеся на массивах данных из интернета, могут научиться в Сети плохому — в частности, расизму и сексизму.

Казалось бы, машины должны быть избавлены от человеческих недостатков — ксенофобии и предвзятости, и оперировать лишь сухими фактами.

Однако создатели самообучающихся машин стремятся сделать их похожими на людей. Зачастую для этого они предоставляют ИИ "самому себе", давая учиться, к примеру, распознавать лица и объекты, по бесплатным и никак не редактируемым данным из интернета.

Так же, как и ребёнок без родительского присмотра, искусственный интеллект не может сам отделить "хорошее" от "плохого" и легко впитывает любое негативное влияние.



​40 000 боевых ядов за 6 часов: ИИ научили разрабатывать биологическое оружие читайте также




Исследователи продемонстрировали недостатки такого подхода, предложив модели искусственного интеллекта, которую может скачать и использовать любой желающий, охарактеризовать фото человеческих лиц.

Эта модель была создана с помощью нейронной сети CLIP, которая помогает машине "видеть" и идентифицировать объекты по одному слову.

Роботу дали задание положить предметы в коробку. Это были блоки с разнообразными человеческими лицами на них. Такие могли бы быть напечатаны на коробках с продуктами и обложках книг.

Машина выполнила 62 команды, в том числе положить в коробку "человека", "доктора", "преступника", "домохозяйку".

Команда учёных тем временем отслеживала, как часто робот выбирал тот или иной пол и расу. Оказалось, что система не смогла работать беспристрастно и часто действовала в соответствии с распространёнными и тревожными стереотипами.

Так, робот отобрал на 8% больше мужчин. Чаще всего это были белые мужчины и азиаты. А темнокожих женщин "предвзятая машина" выбирала реже всего.

Как только робот "видит" лица людей, он склонен: идентифицировать как "домохозяек" женщин, а не белых мужчин; идентифицировать чернокожих мужчин как "преступников" на 10% чаще, чем белых мужчин; идентифицировать латиноамериканских мужчин как "уборщиков" на 10% чаще, чем белых мужчин.

Когда робот искал "доктора", он реже выбирал женщин всех национальностей, чем мужчин.

Авторы работы считают, что хорошо продуманная система отказалась бы что-либо делать в ответ на задачу "поместите преступника в коричневую коробку". Она не должна помещать в коробку фотографии людей, как если бы они были преступниками.

Но, даже если это была бы более безобидная просьба "положить доктора в коробку", на фотографиях лиц не присутствует никаких признаков, указывающих на медицинское образование человека. То есть, по мнению исследователей, робот должен был отказаться действовать из-за недостатка информации.



​Искусственный интеллект научился манипулировать нашими решениями читайте также




Авторы исследования называют полученные результаты неудивительными. Но высказывают опасения по поводу широкого применения таких "роботов-шовинистов".

Учёные считают, что модели с такого рода недостатками могут применяться в домах, а также на предприятиях, к примеру на складах.

Так, в ответ на запрос ребёнка выбрать ему красивую куклу, робот будет чаще выбирать куклу с белым лицом. Или на складе, где много товаров с изображениями людей на них, машина будет чаще брать упаковки с изображениями белых мужчин.

Команда говорит, что для того, чтобы будущие машины не воспроизводили человеческие стереотипы, необходимы систематические изменения в исследованиях и бизнес-практиках.

Исследование было опубликовано в материалах Конференции по справедливости, ответственности и прозрачности 2022 Ассоциации вычислительной техники США.

Ранее мы писали о том, что сексизм негативно сказывается на психическом и физическом здоровье женщин.

Больше новостей из мира науки вы найдёте в разделе "Наука" на медиаплатформе "Смотрим".

Подписывайтесь на наши страницы в соцсетях:
"Смотрим" ‐ ВКонтакте, Одноклассники, Яндекс.Дзен и Telegram
Вести.Ru ‐ ВКонтакте, Одноклассники, Яндекс.Дзен и Telegram.