Синтетический голос не пройдёт: в России разработали новую систему для борьбы с мошенниками
Специалисты Института искусственного интеллекта AIRI и Московского технического университета связи и информатики (МТУСИ) сделали новый шаг в борьбе с мошенниками. Они создали систему на основе алгоритмов искусственного голоса, которая сможет выявить синтетически сгенерированный голос. О перспективной разработке рассказали в пресс-службе ARI.
«Современные технологии позволяют создавать синтетические голоса, которые уже сейчас очень трудно отличить от настоящих. Преимущество таких ИИ-моделей как представленное решение — в их способности учитывать контекст и знания о голосовых данных, позволяя более эффективно различать подлинный голос и его подделку. Данные сети не только распознают подделки с высокой точностью, но и способны адаптироваться к новым типам угроз. Внедрение подобных передовых методов существенно повышает уровень безопасности и защищенности от атак, основанных на подмене голоса», — приводит пресс-служба института слова руководителя научной группы «Доверенные и безопасные интеллектуальные системы» AIRI Олега Рогова.
Стремительное развитие технологий позволило злоумышленникам генерировать голосовую речь из обычного текста с помощью специального программного обеспечения. Российские учёные предложили новый метод анализа аудиоряда, который по свой производительности превосходит решение, ранее представленное командой учёных из Южной Кореи и Франции.
«Интеграция может осуществляться различными способами: от внедрения отдельного программного решения до встраивания в существующие системы безопасности. Потребность в подобных технологиях высока, учитывая растущую угрозу атак с использованием синтетических голосов», — считает руководитель научно-исследовательского отдела «Интеллектуальные решения» МТУСИ Грач Мкртчян, которого цитирует пресс-служба института.
Утверждается, что система российских специалистов вошла в ТОП-10 соревнования Asvspoof 2024 Challenge.