Эксперт Ставропольского вуза поделился способами распознавания ИИ-контента
Современные медиа, включая мессенджеры и социальные сети, все больше напоминают галерею дипфейков, где изображения и видео могут быть сгенерированы искусственным интеллектом (ИИ). Эксперт Северо-Кавказского федерального университета рассказал, как распознавать созданный нейросетями контент и повысить медиаграмотность. Отличить подлинник от искусной имитации становится все труднее: в новостных лентах появляются несуществующие люди и смонтированные видео с известными личностями. Аудиосообщения, имитирующие голоса близких, создаются алгоритмами. ИИ мастерски маскируется под правду, делая распознавание фейков все более сложной задачей. По словам начальника управления по информации и связям с общественностью СКФУ Максима Тизенгаузена, в эпоху искусственного интеллекта важно не терять бдительности и уметь мыслить критически. Изображения и видео можно проверить через сервисы обратного поиска, а для подтверждения фактов изучить сразу несколько источников информации. «Нейросети умеют имитировать реальность, но критическое мышление все еще остается лучшей защитой от обмана. Когда нейросети рисуют лицо лучше, чем объектив камеры, время вспомнить простую истину: зрение может обманывать. Вот на что стоит обратить внимание, чтобы не стать жертвой иллюзорной цифровой магии», — отметил Максим Тизенгаузен. Слишком гладкая кожа на фото, отсутствие текстуры, глянцевый блеск и неестественные глаза — признаки синтетики. Неразборчивые надписи и размытый фон с искаженной перспективой также указывают на подделку. В видео должны насторожить рассинхрон речи и изображения, отсутствие микродвижений и неестественная мимика. В аудио — ровная речь без пауз и фонового шума. Эксперт СКФУ подчеркнул, что ИИ — мощный инструмент, требующий ответственного использования. Разработчики должны обеспечивать прозрачность контента, медиа — маркировать его, а потребители — быть внимательными.
