Учёные показали, что ИИ можно сделать агрессивным и опасным всего парой строк данных
0
Группа исследователей из Truthful AI, Имперского колледжа Лондона и Гентского университета провела серию экспериментов, в ходе которых выяснилось, что большие языковые модели (LLM) искусственного интеллекта могут резко менять своё поведение после дообучения на небольших наборах данных, содержащих либо уязвимый код, либо вредные советы, причём необязательно явные. Например, при некорректном обучении ИИ заявлял, что он лучше людей, и признавался в желании убивать. Источник изображения: AI