Люди перестают отличать продукты нейросети от реальности
Люди перестают отличать продукты нейросети от реальности
Новое научное исследование демонстрирует тревожную тенденцию в восприятии цифрового контента. Согласно полученным данным, человечество достигло точки, когда способность визуально отличать созданные искусственным интеллектом видеоролики от реальных съемок упала до уровня случайного угадывания. Эффективность распознавания дипфейков теперь сопоставима с подбрасыванием монетки.
Особое внимание специалисты обращают на категорию видео с людьми. Точность выявления сгенерированных говорящих голов опустилась ниже порога случайности и составляет всего 46,6%. Это означает, что зрители теперь чаще ошибаются, принимая фейк за правду, чем дают верный ответ. Распознавание ненастоящих пейзажей и животных дается людям лишь немногим лучше, показывая результаты в 54,7% и 51,7% соответственно.
Добавление звука к видеоряду незначительно повышает шансы на успех, но только в том случае, если речь идет на знакомом респонденту языке. При этом исследователи выяснили интересный факт, касающийся подготовки наблюдателя. Знание о том, что видео может быть сгенерировано нейросетью, никак не влияет на точность его детектирования. Единственным значимым демографическим фактором оказался возраст, так как пожилые люди справляются с идентификацией синтетических медиа заметно хуже молодежи.
Работа была опубликована группой исследователей во главе с Ди Куком. Анализ данных за период с 2019 по 2025 год показывает стремительное падение точности человеческого восприятия по мере совершенствования технологий генеративного ИИ. Если еще несколько лет назад артефакты генерации были очевидны, то современные алгоритмы создают контент, который человеческий глаз уже не в силах надежно отфильтровать без помощи специальных технических средств.
https://www.playground.ru/misc/news/lyudi_perestali_otlichat_sgenerirovannye_nejrosetyami_video_ot_nastoyaschih-1819291 -цинк
Собственно, еще в 2024 году отметил, что некоторые читатели канала в Телеге уже испытывали проблемы с отличием живых людей от нейроботов и пытались вести диалог с ними как с живыми людьми. Технологии не стоят на месте и уровень реализма видео, аудио и текста производимого нейросетями устойчиво растет. Чем лучше он имитирует продукцию произведенную человеком, тем тоньше будет становиться грань за которой неподготовленный человек уже не сможет устойчиво различать реальный контент от генеративного.
В перспективе это приведет к обострению дискуссии про обязательную маркировку ИИ-контента в интернета, что будут продвигать в первую очередь государства.
Хоят с другой стороны, нейросети открывают огромный простор для манипуляции массовым сознанием и этим конечно будут пользоваться. Собственно, уже пользуются. Нейросети сейчас уже обычный инструмент обеспечения производства продукции для информационно-психологических войн.
Новое научное исследование демонстрирует тревожную тенденцию в восприятии цифрового контента. Согласно полученным данным, человечество достигло точки, когда способность визуально отличать созданные искусственным интеллектом видеоролики от реальных съемок упала до уровня случайного угадывания. Эффективность распознавания дипфейков теперь сопоставима с подбрасыванием монетки.
Особое внимание специалисты обращают на категорию видео с людьми. Точность выявления сгенерированных говорящих голов опустилась ниже порога случайности и составляет всего 46,6%. Это означает, что зрители теперь чаще ошибаются, принимая фейк за правду, чем дают верный ответ. Распознавание ненастоящих пейзажей и животных дается людям лишь немногим лучше, показывая результаты в 54,7% и 51,7% соответственно.
Добавление звука к видеоряду незначительно повышает шансы на успех, но только в том случае, если речь идет на знакомом респонденту языке. При этом исследователи выяснили интересный факт, касающийся подготовки наблюдателя. Знание о том, что видео может быть сгенерировано нейросетью, никак не влияет на точность его детектирования. Единственным значимым демографическим фактором оказался возраст, так как пожилые люди справляются с идентификацией синтетических медиа заметно хуже молодежи.
Работа была опубликована группой исследователей во главе с Ди Куком. Анализ данных за период с 2019 по 2025 год показывает стремительное падение точности человеческого восприятия по мере совершенствования технологий генеративного ИИ. Если еще несколько лет назад артефакты генерации были очевидны, то современные алгоритмы создают контент, который человеческий глаз уже не в силах надежно отфильтровать без помощи специальных технических средств.
https://www.playground.ru/misc/news/lyudi_perestali_otlichat_sgenerirovannye_nejrosetyami_video_ot_nastoyaschih-1819291 -цинк
Собственно, еще в 2024 году отметил, что некоторые читатели канала в Телеге уже испытывали проблемы с отличием живых людей от нейроботов и пытались вести диалог с ними как с живыми людьми. Технологии не стоят на месте и уровень реализма видео, аудио и текста производимого нейросетями устойчиво растет. Чем лучше он имитирует продукцию произведенную человеком, тем тоньше будет становиться грань за которой неподготовленный человек уже не сможет устойчиво различать реальный контент от генеративного.
В перспективе это приведет к обострению дискуссии про обязательную маркировку ИИ-контента в интернета, что будут продвигать в первую очередь государства.
Хоят с другой стороны, нейросети открывают огромный простор для манипуляции массовым сознанием и этим конечно будут пользоваться. Собственно, уже пользуются. Нейросети сейчас уже обычный инструмент обеспечения производства продукции для информационно-психологических войн.
