Друг или враг: насколько безопасно доверять свои секреты нейросетям
Нейросети быстро и незаметно вошли в нашу жизнь. Сегодня ими активно пользуются представители самых разных профессий. А некоторые и вовсе видят в нейросети друга, обращаясь к нему за советами и делясь самыми сокровенными тайнами. Насколько это безопасно? Может ли нейросеть "слить" ваши данные или использовать их не по назначению? Об этом корреспондент Tengrinews.kz поговорил с экспертом в сфере искусственного интеллекта Максатом Акпаровым.
Безопасно ли доверять данные нейросетям?
По словам Акпарова, системы искусственного интеллекта наподобие ChatGPT не "запоминают" пользователей или их запросы в привычном нам смысле. Однако данные, введенные пользователями, могут использоваться для дообучения модели, если такая функция не отключена на уровне платформы.
"Прямая идентификация конкретного пользователя по его тексту невозможна, если только он сам не оставил в сообщении контактные данные. Тем не менее всегда есть риск, если речь идет о конфиденциальной или чувствительной информации, особенно в бесплатных и открытых сервисах", - объяснил спикер.
Как в таком случае обезопасить личные данные? На этот счет у Акпарова есть несколько рекомендаций:
никогда не вводите персональные данные, пароли, номера карт и другую чувствительную информацию в чаты с ИИ;
используйте проверенные платформы, которые соответствуют стандартам безопасности (например, стандарту GDPR);
в корпоративной среде - применяйте закрытые версии моделей, развернутые на собственных серверах;
отключайте сохранение истории (если это возможно), настраивайте логику обезличивания данных.
GDPR - свод правил Европейского союза, который регулирует обработку персональных данных физических лиц в ЕС. Он направлен на защиту личных данных пользователей и предоставляет им больше контроля над информацией, которую собирают и используют компании.
Есть ли гарантия, что личные данные, доверенные нейросетям, в надежных руках?
"Полной гарантии не может дать ни один разработчик. Даже крупнейшие компании могут столкнуться с утечками. Однако такие платформы, как OpenAI, Microsoft, Google, внедряют многоуровневые меры защиты. Выбор надежного поставщика, прозрачная политика обработки данных и юридические соглашения - важные факторы доверия", - сказал эксперт.
Нейросети и спецслужбы
Могут ли спецслужбы получить доступ к данным ChatGPT и его аналогов?
"Теоретически да, особенно если речь идет о международных юрисдикциях и национальной безопасности. В странах с высоким уровнем цифрового контроля государственные органы могут запрашивать доступ к серверам или логам. В этом смысле важно понимать, где расположены сервера, кто владеет платформой и какие действуют местные законы о защите данных", - подчеркнул Максат Акпаров.
Также мы спросили эксперта: может ли информация, полученная от ChatGPT и его аналогов, юридически использоваться против человека, доверившего ему свои тайны?
По словам Акпарова, введенная в нейросеть информация не является конфиденциальной по умолчанию, особенно если пользователь сам не обеспечил приватность.
"В случае расследований или судебных процессов переписка с искусственным интеллектом может быть затребована как цифровое доказательство, если будет доказана ее связь с пользователем. Поэтому важно относиться к чату с искусственным интеллектом как к публичному пространству, а не как к личному дневнику", - посоветовал он.
Что делать, если нейросеть "слила" информацию
Если все же ваши данные просочились в сеть, и вы уверены, что это "дело рук" нейросети, Акпаров рекомендует предпринять следующие шаги:
обратиться в техподдержку и потребовать расследование;
написать официальную жалобу в регулятор по защите данных (в ЕС - это органы по GDPR, в Казахстане - Комитет по защите персональных данных);
если ущерб доказуем - подать в суд, особенно если компания нарушила условия пользовательского соглашения.
"Ответственность будет лежать на владельце или операторе ИИ, если утечка произошла по их вине. Поэтому ключевое - использовать решения от ответственных и прозрачных поставщиков", - заключил эксперт.
В мае депутаты Мажилиса рассмотрели законопроект по вопросам искусственного интеллекта, а также сопутствующие поправки к нему. Для чего Казахстану закон об ИИ, как он будет работать и стоит ли казахстанцам опасаться развития нейросетей? Об этом читайте в материале: Сможет ли ИИ победить коррупцию и заменить тех, кто создает законы? Интервью с депутатом Смышляевой
Читайте также: Ваш смартфон знает все: как приложения шпионят за вами
Безопасно ли доверять данные нейросетям?
По словам Акпарова, системы искусственного интеллекта наподобие ChatGPT не "запоминают" пользователей или их запросы в привычном нам смысле. Однако данные, введенные пользователями, могут использоваться для дообучения модели, если такая функция не отключена на уровне платформы.
"Прямая идентификация конкретного пользователя по его тексту невозможна, если только он сам не оставил в сообщении контактные данные. Тем не менее всегда есть риск, если речь идет о конфиденциальной или чувствительной информации, особенно в бесплатных и открытых сервисах", - объяснил спикер.
Как в таком случае обезопасить личные данные? На этот счет у Акпарова есть несколько рекомендаций:
никогда не вводите персональные данные, пароли, номера карт и другую чувствительную информацию в чаты с ИИ;
используйте проверенные платформы, которые соответствуют стандартам безопасности (например, стандарту GDPR);
в корпоративной среде - применяйте закрытые версии моделей, развернутые на собственных серверах;
отключайте сохранение истории (если это возможно), настраивайте логику обезличивания данных.
GDPR - свод правил Европейского союза, который регулирует обработку персональных данных физических лиц в ЕС. Он направлен на защиту личных данных пользователей и предоставляет им больше контроля над информацией, которую собирают и используют компании.
Есть ли гарантия, что личные данные, доверенные нейросетям, в надежных руках?
"Полной гарантии не может дать ни один разработчик. Даже крупнейшие компании могут столкнуться с утечками. Однако такие платформы, как OpenAI, Microsoft, Google, внедряют многоуровневые меры защиты. Выбор надежного поставщика, прозрачная политика обработки данных и юридические соглашения - важные факторы доверия", - сказал эксперт.
Нейросети и спецслужбы
Могут ли спецслужбы получить доступ к данным ChatGPT и его аналогов?
"Теоретически да, особенно если речь идет о международных юрисдикциях и национальной безопасности. В странах с высоким уровнем цифрового контроля государственные органы могут запрашивать доступ к серверам или логам. В этом смысле важно понимать, где расположены сервера, кто владеет платформой и какие действуют местные законы о защите данных", - подчеркнул Максат Акпаров.
Также мы спросили эксперта: может ли информация, полученная от ChatGPT и его аналогов, юридически использоваться против человека, доверившего ему свои тайны?
По словам Акпарова, введенная в нейросеть информация не является конфиденциальной по умолчанию, особенно если пользователь сам не обеспечил приватность.
"В случае расследований или судебных процессов переписка с искусственным интеллектом может быть затребована как цифровое доказательство, если будет доказана ее связь с пользователем. Поэтому важно относиться к чату с искусственным интеллектом как к публичному пространству, а не как к личному дневнику", - посоветовал он.
Что делать, если нейросеть "слила" информацию
Если все же ваши данные просочились в сеть, и вы уверены, что это "дело рук" нейросети, Акпаров рекомендует предпринять следующие шаги:
обратиться в техподдержку и потребовать расследование;
написать официальную жалобу в регулятор по защите данных (в ЕС - это органы по GDPR, в Казахстане - Комитет по защите персональных данных);
если ущерб доказуем - подать в суд, особенно если компания нарушила условия пользовательского соглашения.
"Ответственность будет лежать на владельце или операторе ИИ, если утечка произошла по их вине. Поэтому ключевое - использовать решения от ответственных и прозрачных поставщиков", - заключил эксперт.
В мае депутаты Мажилиса рассмотрели законопроект по вопросам искусственного интеллекта, а также сопутствующие поправки к нему. Для чего Казахстану закон об ИИ, как он будет работать и стоит ли казахстанцам опасаться развития нейросетей? Об этом читайте в материале: Сможет ли ИИ победить коррупцию и заменить тех, кто создает законы? Интервью с депутатом Смышляевой
Читайте также: Ваш смартфон знает все: как приложения шпионят за вами