Кирилл Дьяков предупредил об утечке данных через нейросети
Кирилл Дьяков из MWS AI рассказал РИА Новости о рисках утечки медицинских данных при использовании нейросетей, таких как ChatGPT. Под угрозой конфиденциальность пользователей из-за способности ИИ запоминать и раскрывать информацию, а также из-за возможных судебных запросов.
Как сообщил РИА Новости старший юрист компании MWS AI (являющейся частью ERION и включающей нетелеком-активы МТС) Кирилл Дьяков, анализ медицинских данных с применением нейросетей может привести к их утечке.
"Применение больших языковых моделей, вроде ChatGPT, предоставляющих пользователям возможность анализа медицинской информации, может привести к утечке таких данных", - отметил Дьяков.
Он объяснил, что такие ИИ-сервисы способны запоминать данные пользователей, обучаться на них и впоследствии воспроизводить информацию о пользователе, включая ссылки на медицинские данные. Это может иметь последствия для защиты персональной информации. Кроме того, разработчики ИИ-моделей в некоторых случаях обязаны раскрывать данные пользователей по судебным запросам, что создает дополнительные риски для конфиденциальности.
Дьяков также добавил, что неспециализированные модели могут допускать ошибки в ответах при некорректно сформулированных запросах.
"Наиболее оптимальным решением является загрузка в нейросети обезличенных данных, например, с удаленными или замаскированными личными данными пользователей, или использование специализированных систем в закрытом контуре в таких местах, как клиники. Это исключает доступ к внешним ресурсам и делает системы менее уязвимыми для атак и утечек по сравнению с публичными сервисами", - отметил эксперт.
