
Когда видео может быть создано за секунды, правда становится вопросом доверия. Новый инструмент меняет не только изображение — он меняет саму суть того, что мы считаем реальным.
Компания Google представила свой новый инструмент Veo 3 – мощный генератор видео с искусственным интеллектом, способный создавать правдоподобные ролики на основе текстовых описаний. Технология уже вызывает тревогу у экспертов: она может быть использована для распространения дезинформации и разжигания конфликтов, передает ИА El.kz со ссылкой на Time.
Что делает Veo 3 опасным?
Хотя генераторы дипфейков существуют уже несколько лет, Veo 3 представляет собой качественный скачок. В отличие от предыдущих моделей (например, Sora от OpenAI), Veo 3 способен генерировать не только изображение, но и реалистичный звук, диалоги, спецэффекты и физически правдоподобное движение, избавляясь от характерных для ИИ ошибок вроде лишних пальцев или неестественных лиц.
TIME протестировало Veo 3, создав фальшивые видео, включая:
- поджог храма в Пакистане;
- фабрикацию бюллетеней на выборах;
- лабораторию в Китае с учёными и летучими мышами;
- фальшивую помощь США в Газе.
Эксперты предупреждают: если подобные видео публикуются в соцсетях в разгар кризисной ситуации, они могут легко восприниматься как реальные и провоцировать массовые беспорядки, ненависть или даже насилие.
Google заявляет, что использует невидимые водяные знаки (SynthID) и небольшие визуальные метки, чтобы отличать сгенерированные ролики. Однако, как показала практика, такие отметки легко обрезаются или игнорируются. Veo 3 также блокирует создание видео с реальными политиками, жестокостью и стихийными бедствиями.
Цена доступа к инструменту — порядка 249 долларов в месяц, и он уже активно используется пользователями в США и Великобритании. Некоторые создают невинные короткометражки и пародии, но другие уже выпускают фейковые политические новости, инсценировки насилия и пропаганду.
Что дальше?
Эксперты по кибербезопасности предупреждают: такие инструменты позволят преступникам и государственным игрокам массово симулировать действия журналистов, чиновников и граждан, подрывая доверие к официальной информации.
Исследователь Хенк ван Эсс, сгенерировавший фейковую "новость" об отмене школы ради строительства яхтенного завода, заявил: «Если я могу создать убедительный фейк за 28 минут, представьте, что могут сделать настоящие злоумышленники».
По мнению многих наблюдателей, технические меры недостаточны. Исследователь Ada Lovelace Institute Джулия Смакман отмечает: «Единственный реальный способ предотвратить использование дипфейков для дезинформации — ограничить доступ к таким моделям и ввести обязательные стандарты безопасности на законодательном уровне».
- В Южной Корее начали расследование против Telegram из-за дипфейков