воскресенье, 01 марта 2026
6+

Учёные ДГУ научили нейросети распознавать deepfake

В эпоху, когда цифровая реальность всё чаще переплетается с искусственной, способность отличить подлинный контент от поддельного становится вопросом национальной безопасности, финансовой стабильности и личной репутации. В ответ на этот глобальный вызов исследователи Дагестанского государственного университета представили работу, посвящённую разработке методов борьбы с фейковыми видео и изображениями.

Научная статья «Методы глубокого обучения в задаче распознавания фейковых изображений и видео», опубликованная в рецензируемом ВАК-журнале ДГУ, подготовлена деканом факультета математики и компьютерных наук, кандидатом физико-математических наук Амучи Якубовым и его аспирантом Гаджимурадом Мирзоевым. Эта работа — прямой ответ на одну из самых острых технологических угроз.

Технологии deepfake, позволяющие создавать сверхреалистичные подделки с помощью ИИ, уже используются в мошеннических схемах и для распространения дезинформации. Традиционные методы детектирования, ищущие следы монтажа, против синтетического контента бессильны. Как отмечают авторы, реалистичность подделок, создаваемых генеративно-состязательными и диффузионными сетями, требует применения сложных методов глубокого обучения, способных анализировать скрытые цифровые «отпечатки» алгоритма-фальсификатора.

В основе исследования махачкалинских учёных — строгая математическая формализация задачи: видеопоследовательность необходимо классифицировать как реальную или фейковую с максимальной точностью. Особое внимание уделено проблеме доменного сдвига — когда детектор, обученный на одном типе подделок, не распознаёт другие. Для повышения устойчивости модель строится на принципах дистрибутивно-робастной оптимизации.

Авторы провели масштабный анализ современных подходов, включая пространственные методы на основе свёрточных сетей (CNN), ищущие артефакты в текстуре; пространственно-временные модели (CNN+LSTM, 3D-сети), анализирующие неестественную мимику в последовательности кадров; а также физиологические методы, выявляющие отсутствие микропульса или небиологичные паттерны моргания.

Теоретические выкладки были проверены в вычислительном эксперименте на станции с графическим процессором NVIDIA RTX 2080 Ti. Учёные сравнили четыре архитектуры нейросетей — Xception, ResNet-50, VGG16 и MobileNetV2 — на известном наборе данных DFDC (DeepFake Detection Challenge). Практические результаты показали, что Xception обеспечивает лучший баланс точности (около 88,5%) и скорости (89 мс на кадр). VGG16 продемонстрировала близкую точность, но оказалась в 12 раз медленнее, а MobileNetV2 стала самой быстрой, пожертвовав частью точности. Также была проверена переносимость моделей на другой датасет (FaceForensics++), что имитирует столкновение с новым видом фейка.

Исследование Якубова и Мирзоева — значимый вклад в формирование цифрового иммунитета. Авторы не только систематизировали и проверили на практике ключевые подходы, но и обозначили направления развития: создание более универсальных детекторов, интеграцию аудиоанализа и повышение устойчивости к атакам на сами системы верификации.

Ректор ДГУ Муртазали Рабаданов высоко оценил работу коллектива: «Разработка наших учёных — это не просто научная публикация, а реальный шаг к обеспечению цифрового суверенитета. ДГУ последовательно наращивает компетенции в сфере искусственного интеллекта, и данное исследование подтверждает, что дагестанская научная школа способна решать задачи мирового уровня».

Публикация в рецензируемом журнале высшей категории подтверждает, что ДГУ является активным участником передовых мировых исследований в области ИИ и кибербезопасности. В мире, где видеодоказательство перестало быть неоспоримым, разработка надёжных инструментов верификации становится стратегической задачей, и учёные ДГУ вносят в её решение весомый вклад.

Фото: пресс-служба Дагестанского государственного университета

Новый номер

Онлайн-подписка на журнал "Женщина Дагестана":

Женщина Дагестана (на русском языке)