Современные нейросети научились генерировать видео с идеально синхронизированным голосом и движениями буквально за «пару слов». Однако ведущий эксперт в области ИИ Ярослав Селиверстов из «Университета 2035» рассказал, как отличить такие ролики от реальных.
10 ноября, "Кобринский вестник"/ Современные модели, такие как Sora от OpenAI, Runway Gen-2 и Gen-3, Pika 2, Synthesia, Kaiber, а также голосовые движки ElevenLabs и Coqui.ai, способны создавать фотореалистичные ролики, где движения персонажей и голос идеально синхронизированы.
Главный способ распознать сгенерированное видео — обратить внимание на физику движений, пояснил эксперт.

ИИ плохо ощущает массу, инерцию и силу тяжести: люди и животные двигаются слишком легко, предметы подпрыгивают нелогично, капли воды летят неправдоподобными дугами.
В реальной съемке тело взаимодействует с пространством через мельчайшие неровности, рывки и непредсказуемость траекторий. ИИ пока не способен воспроизвести такую кинетику, пояснил Селиверстов.
Другой признак — неправильное освещение: в видео могут быть несколько источников света с разным направлением, тени падать не туда или отсутствовать вовсе.
Фон также часто выдаёт генерацию: деревья повторяются, лица случайных прохожих выглядят нарисованными, надписи на вывесках превращаются в нечитаемые символы. Особенно заметно это по краям кадра.
ИИ-видео можно распознать по глазам и мимике:

Источник mlyn.by
Фото из открытых источников (иллюстрация)
Поделиться в соцсетях: