ru24.pro
Все новости
Сентябрь
2024
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
21
22
23
24
25
26
27
28
29
30

Будущее рядом: нейросети научились предсказывать преступления

Ученые из Южнокорейского научно-исследовательского института электроники и телекоммуникаций (ETRI) создали модель искусственного интеллекта (ИИ), которая способна предсказывать преступления с точностью больше 82%. Об этом передает Tech Xplore.

Разработка называется Dejaview, она анализирует видеозаписи, изучает поведение людей в общественных местах, сравнивая с преступниками, и в реальном времени оценивает риски совершения злодеяния. Система также прогнозирует рост уровня преступности. Причем Dejaview различает виды проступков и нарушений закона.

Ученые называют одной из особенностей системы способность глубоко анализировать поведение определенного человека и контролировать его действия для предотвращения рецидивов. Запуск коммерческой версии Dejaview планируется в конце 2025 года.

Разработчик технологий машинного обучения R-Vision Анастасия Перкова в беседе с «Известиями» объяснила, что Dejaview может стать хорошим помощником в процессе оперативного наблюдения за бывшими заключенными или людьми, находящимися под надзором. Однако применяться аналогичные системы в России могут только при наличии проработанной нормативно-правовой базы. Сейчас безопасность систем на основе искусственного интеллекта пока — пока «серая» зона с точки зрения правого регулироваться.

Тем не менее с каждым годом в большем количестве регионов России появляются системы распознавания лиц в общественных местах. Как подчеркнул руководитель направления Т1 ИИ (Холдинг Т1) Сергей Голицын, технологии на основе ИИ способны распознавать оружие и опасные объекты, а также опасное поведение людей и оценивать риски совершения преступления. Однако создание комплексных сетей контроля требует соблюдения двух важных факторов:

1) Соблюдение законодательства о персональных данных, регулирующее сбор, хранение и обработку информации.

2) Эффективность систем на основе ИИ, которые должны применять в общественно важных местах.

Как отметила Перкова, системы обучаются и работают с чувствительной информацией. Речь идет, в том числе о персональных данных подозреваемых или злоумышленников, видеозаписях с лицами и голосовых сообщениях. Для прогнозирования преступлений могут стать источником данных также архивы и отчеты с описанием инцидентов. Не факт, что правоохранителя согласятся делиться этими сведениями с разработчиками. Поэтому работа нейросетей требует сопровождения квалифицированных специалистов.

Есть и другой камень преткновения — поведение человека. Технологии могут изучить лишь часть человеческих паттернов. Однако, как обратил внимание директор по управлению сервисами Angara Security Павел Покровский, есть примеры асоциального поведения, не являющиеся признаком преступления. Так, есть синдром Туретта, при котором человек может, например, публично выражаться нецензурно. Такое поведение — административное правонарушение, но заболевание является психиатрическим диагнозом.

Кроме того, есть другая опасность — adversarial attacks. Это вид воздействия на входные данные систем на основе ИИ. По словам Перковой, злоумышленник может повлиять на ход расследования преступления, применяя манипуляции с входными данными таких моделей. Ранее 5-tv.ru сообщал, что

Ранее 5-tv.ru писал, что дизайнер и блогер Артемий Лебедев заявил о возможности ИИ заменить провинциальных журналистов. По его словам, спрос снижается на людей, которые занимались простой и неоригинальной работой.

Кстати, в начале сентября Лебедев выступил на Восточном экономическом форуме во Владивостоке. Дизайнер заявил, что развитие технологий может осуществляться без креатива, а творческий подход может быть нетехнологичным. По его словам, нейросети показали людям с художественным образованием возможность создания шедевров искусства в бесконечном количестве за считанные секунды. Однако Лебедев уверен: невозможно заменить способности человека.