Исследователи компании HarrisX провели опрос среди американцев, чтобы выяснить, смогут ли люди отличить сгенерированные видео от настоящих. Выяснилось, что большинство респондентов ошиблись в пяти из восьми продемонстрированных видео.
Компания проводила опрос в период с 1 по 4 марта в США. В нём успели поучаствовать более тысячи человек. В качестве видео исследователи использовали четыре ролика от нейросети Sora и столько же, снятых людьми на камеру. Респондентам показывали видео в случайном порядке. Им надо было ответить, сняли ли ролик человек или создала нейросеть.
Отмечается, что в пяти из восьми случаев респонденты давали неверный ответ. Примечательно, что видео с высоким уровнем детализации от Sora часто путали с настоящими. Ролик с аэросъёмкой района побережья Биг-Сур в Центральной Калифорнии в 60% случаев посчитали снятым человеком. На самом деле этот футаж взяли из официальной презентации модели машинного обучения Sora.
Из общего графика результатов видно, что люди с трудом отличают сгенерированные видео от настоящих и часто дают ложные ответы. После вопросов респондентам рассказали, какие из роликов создала нейросеть. Из всех опрошенных 2% отметили, что они напуганы этим фактом и 18% были встревожены. Остальные рассказали о любопытстве, удивлении или неопределённых чувствах.
Результаты опроса
В конце февраля 2024 года OpenAI представила ИИ-генератор видео Sora, который создаёт ролики по текстовому описанию. На официальном сайте компания опубликовала примеры работы нейросети, но пока не открыла к ней доступ. Представители OpenAI рассказали, что видео от Sora получаются очень реалистичными, поэтому сейчас команда проекта работает над способом, который поможет быстро идентифицировать сгенерированные видео. Это, по мнению компании, поможет избежать распространения фейков.