Не верьте глазам своим
Искусственный интеллект в последнее время развивается стремительными темпами, а изображения, видео и звукозаписи, созданные или измененные с помощью этой технологии, стали неотъемлемой частью нашей повседневности. Такой контент, называемый специалистами синтетическим, практически неотличим от подлинного. С одной стороны, эта технология имеет много интересных областей применения, например, в сфере развлечений или образования. С другой, оказавшись не в тех руках, она может нанести значительный урон, став оружием мошенников или шантажистов. Дипфейки могут даже представлять угрозу для демократии, когда используются для дискредитации политических оппонентов.
Насколько вообще население Швейцарии осведомлено об этой проблеме? В ходе репрезентативного опроса, проведенного специалистами Фонда оценки технологий TA-Swiss среди 1300 швейцарцев, было установлено, что лишь чуть более половины респондентов знают, что такое дипфейк, а 2% уже создавали подобные фальшивки.
Швейцарское население в основном ассоциирует дипфейки с риском, при этом женщины воспринимают отдельные риски сильнее, например, угрозу частной жизни или возможность стать жертвой манипуляций с помощью дипфейков. Любопытно, что оценка общественности меняется, когда вместо слова «дипфейк» используется термин «синтетические медиа», хотя речь идет об одном и том же феномене.
Вероятность нарваться на фальшивку, прокручивая ленты социальных сетей, высока. Настораживает то, что в рамках онлайн-экспериментов участники исследования смогли с трудом отличить дипфейки от настоящего видео. Исследователи сформировали две группы и показали им три фальшивых и три настоящих видео. Одной группе заранее были даны советы, как распознать подделку. Однако подсказки никак не повлияли на результат! Обе группы одинаково плохо смогли распознать дипфейки: эксперимент показал, что хорошо сделанные фальшивки практически невозможно отличить от настоящего видео. Зато те, кто хорошо разбирается в социальных сетях, показали несколько лучшие результаты – социальная медиаграмотность поможет бороться с фальшивками.
Если же вы возлагаете надежды на программы-детекторы, которые должны выявлять подделки, то спешим вас разочаровать. Исследователи пришли к выводу, что детекторы не так надежны, как их рекламируют. Кроме того, они зачастую труднодоступны.
В Швейцарии (пока?) нет специального закона о дипфейках, и авторы исследования призывают принять меры по регулированию, особенно в отношении онлайн-платформ, которые следует обязать удалять проблемный контент и создать соответствующую систему отчетности. Кроме того, необходимо вести разъяснительную работу на всех уровнях, а компаниям и организациям стоит проводить соответствующее обучение для сотрудников.
Что же можно сделать самому? Проявлять осторожность и не верить слепо всему, что распространяют в интернете. Помните, что поддельные видео можно распознать, например, по глазам изображенного человека, которые остаются необычно неподвижными, при этом лицо часто кажется парящим над телом, а зубы и волосы имеют нереальную форму. На подделку также может указывать размытый или неподходящий фон, а также то, что человек выглядит или ведет себя не так, как вы ожидаете. Душераздирающие сцены, эмоциональная фоновая музыка или нецензурная лексика должны стать тревожным знаком. Проверяйте происхождение фото или видео: важно убедиться, являются ли аккаунты подлинными, а не поддельными профилями, например, качественных СМИ. Используйте разные источники информации и посмотрите, сообщают ли несколько авторитетных каналов об увиденном вами контенте. Если нет, это признак того, что сообщение не было проверено. Происхождение изображения можно узнать с помощью Google Image Search, а ссылку на видео на YouTube можно проверить с помощью YouTube Dataviewer. Это позволяет определить точное время загрузки. Наконец, делитесь контентом с осторожностью, особенно, если вы сомневаетесь в его достоверности.