Эксперт объяснила, как как отличить реальное видео от сгенерированного ИИ

03.05.2026 05:30:00

В последние годы стремительное развитие нейросетей сделало дипфейки и сгенерированный видеоконтент пугающе реалистичными. Однако абсолютно незаметными для человеческого глаза они пока не стали.

Основательница школы нейросетей и SMM Ксения Баранова в беседе с «Газетой.Ru» раскрыла ключевые признаки, по которым даже в высококачественном ролике можно безошибочно опознать работу искусственного интеллекта.

Главный маркер, который сразу выдает генерацию, — это неровная мимика и так называемое плавающее лицо. По словам эксперта, в сгенерированных видео часто возникают микродефекты, заметные при внимательном просмотре.

человек с планшетом
Фото: Pixabay / человек с планшетом

Одно из самых распространенных явлений — несовпадение эмоциональной окраски речи с движением лицевых мышц. Человек в кадре может возбужденно и эмоционально что-то рассказывать, но его жесты и мимика при этом будут жить своей жизнью, лишь приблизительно соответствуя темпу и настроению разговора.

При поворотах головы возникает эффект искажения: лицо начинает слегка «плыть», черты смазываются, и персонаж на доли секунды теряет сходство с самим собой.

Особое внимание эксперт советует уделять глазам. Искусственный интеллект до сих пор испытывает сложности с моделированием естественного зрения. Выдать подделку может неестественно редкое моргание или, наоборот, хаотичное движение век.

Взгляд у сгенерированного персонажа часто выглядит блуждающим, он не способен стабильно фокусироваться на зрителе, собеседнике или объективе камеры. Кроме того, алгоритмы не всегда корректно просчитывают отражение света в зрачках, из-за чего блики выглядят анатомически неверными и не соответствующими окружающей обстановке.

Даже самые современные модели ИИ периодически сбоят на проработке конечностей. Баранова отмечает, что пальцы рук могут выглядеть неестественно или их количество может не соответствовать норме. Движения рук зачастую оказываются резкими, нелогичными и произнесенными «невпопад».

Если персонаж держит в руках какой-либо предмет, этот объект никогда не остается стабильным на протяжении всего ролика: он может незаметно менять форму, искажаться в геометрии или вовсе исчезать из кадра.

Не менее важным индикатором является фон и его взаимодействие с главным объектом съемки. В сгенерированных роликах задний план может слегка дрожать или размываться неестественным образом.

Тени от объектов и людей часто падают не в ту сторону или не совпадают с расположением источника света, а мелкие детали интерьера имеют свойство появляться и исчезать от кадра к кадру.

В случаях, когда видео сопровождается звуковой дорожкой, алгоритмы также допускают характерные ошибки. Интонации синтезированного голоса звучат слишком ровно и монотонно. Если в живой речи к концу повествовательного предложения тон обычно идет на спад, то в сгенерированной речи интонация может вопреки логике повышаться, игнорируя знаки препинания. 

Паузы между смысловыми блоками могут отсутствовать или быть неестественно длинными, из-за чего предложения сливаются в единый трудноразличимый текст.

Наконец, обман может раскрыть излишняя идеальность картинки. Настоящая реальность полна несовершенств, и их полное отсутствие — верный признак синтеза.

Если кожа человека выглядит как пластик без пор и текстуры, свет поставлен стерильно ровно без единого дефекта, а в кадре пропали все мелкие детали вроде пылинок или ворсинок, это весомый повод насторожиться. Баранова подчеркивает: чем более гладким и «отполированным» кажется изображение, тем выше вероятность того, что оно создано машиной.

Впрочем, одной лишь технической насмотренности недостаточно. Эксперт призвала всегда подключать логическое мышление и оценивать контекст: необходимо проверять источник публикации видео, искать подтверждение информации в независимых каналах и задаваться вопросом, может ли происходящее в кадре быть правдой в реальном мире.

Виталий Кистерный Автор: Виталий Кистерный главный редактор сетевого издания Белновости

Новости по теме: