ru24.pro
Ru24.pro
Январь
2026
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
20
21
22
23
24
25
26
27
28
29
30
31

Кирилл Дьяков предупредил об утечке данных через нейросети

Кирилл Дьяков из MWS AI рассказал РИА Новости о рисках утечки медицинских данных при использовании нейросетей, таких как ChatGPT. Под угрозой конфиденциальность пользователей из-за способности ИИ запоминать и раскрывать информацию, а также из-за возможных судебных запросов.

Как сообщил РИА Новости старший юрист компании MWS AI (являющейся частью ERION и включающей нетелеком-активы МТС) Кирилл Дьяков, анализ медицинских данных с применением нейросетей может привести к их утечке.

"Применение больших языковых моделей, вроде ChatGPT, предоставляющих пользователям возможность анализа медицинской информации, может привести к утечке таких данных", - отметил Дьяков.

Он объяснил, что такие ИИ-сервисы способны запоминать данные пользователей, обучаться на них и впоследствии воспроизводить информацию о пользователе, включая ссылки на медицинские данные. Это может иметь последствия для защиты персональной информации. Кроме того, разработчики ИИ-моделей в некоторых случаях обязаны раскрывать данные пользователей по судебным запросам, что создает дополнительные риски для конфиденциальности.

Дьяков также добавил, что неспециализированные модели могут допускать ошибки в ответах при некорректно сформулированных запросах.

"Наиболее оптимальным решением является загрузка в нейросети обезличенных данных, например, с удаленными или замаскированными личными данными пользователей, или использование специализированных систем в закрытом контуре в таких местах, как клиники. Это исключает доступ к внешним ресурсам и делает системы менее уязвимыми для атак и утечек по сравнению с публичными сервисами", - отметил эксперт.