АиФ
Июнь
2025
1 2 3 4 5 6 7 8 9 10 11 12 13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

IT-эксперт Костунов: делиться личными данными с ИИ может быть опасно

0
АиФ 

ИИ-сервисы стали неотъемлемой частью повседневной жизни, используясь для работы с текстами, анализа данных и даже в медицине. Однако важно понимать, куда уходят ваши запросы и что происходит с этими данными. ИТ-эксперт Илья Костунов в беседе с «ФедералПресс» рассказал о том, как нейросети обрабатывают информацию и какие риски скрываются за их удобством.

Как отметил Костунов, искусственный интеллект активно используется в различных сферах благодаря своей эффективности и быстроте: запрос — и сразу готовый результат. Однако за удобством скрывается сложная структура, в которой данные пользователей могут оставаться не только в памяти системы, но и быть использованы для обучения моделей. Это означает, что даже личные запросы, отправленные в такие сервисы, как ChatGPT или DeepSeek, могут быть сохранены, проанализированы и использованы в будущих ответах, особенно в бесплатных версиях.

Утечки данных — это уже не гипотезы, а реальность, с примерами, когда компаниям приходилось полностью запрещать использование ИИ. Например, в 2023 году сотрудники Samsung случайно загрузили конфиденциальную информацию в ChatGPT, что привело к запрету на использование сервиса в компании. В том же году с помощью вирусов, таких как Raccoon Infostealer, были украдены чаты пользователей, а также логины и пароли, оставшиеся в открытых документах, которые стали частью обучающего массива нейросетей.

Костунов пояснил, что многие пользователи не осознают, как именно работают такие сервисы, воспринимая их как обычный поисковик. На самом деле нейросети — это обучающиеся модели, которые впитывают все, что им отправляют. Разработчики же заинтересованы в расширении базы данных, так как чем больше информации, тем точнее ответы, что увеличивает конкурентоспособность продукта. Если не отключены соответствующие настройки, данные пользователей могут попасть в эту обучающую базу.

Кроме того, никто не может гарантировать полную безопасность от взломов или сбоев системы. Даже с использованием корпоративных версий или обезличиванием данных риски остаются. Эксперт подчеркнул, что любые данные, введённые в нейросеть, могут быть сохранены, переработаны и использоваться для дальнейшего обучения, несмотря на заявленную анонимность.

Чтобы минимизировать риски, специалисты рекомендуют не загружать в ИИ чувствительную информацию, такую как личные данные, адреса, номера телефонов или служебную переписку. Важно обезличивать такие данные перед отправкой. Если сомневаетесь, лучше не отправлять запрос вовсе.

Костунов также обратил внимание на то, что иностранные модели, особенно те, что обучались на англоязычных данных, могут быть неточными или содержать ошибки. К тому же они могут непреднамеренно выдавать частную информацию других пользователей. Поэтому при работе с ИИ крайне важно применять критическое мышление, ведь ИИ — это всего лишь инструмент, который требует осторожности, так же как и любой другой сервис, с которым вы делитесь личными данными.

Ранее IT-эксперт Артём Геллер сообщил, что ИИ пока не заменит программистов, но ускорит их работу.