Google выходит на борьбу с дипфейками: представлен SynthID Detector

Google выходит на борьбу с дипфейками: представлен SynthID Detector

Google запускает функцию быстрой проверки того, было ли изображение, видео, аудиофайл или фрагмент текста созданы с помощью одного из его инструментов на основе ИИ.

SynthID Detector, анонсированный во вторник на Google I/O 2025, — это портал для проверки, который использует технологию водяных знаков Google SynthID для идентификации контента, созданного искусственным интеллектом. Пользователи могут загрузить файл, и SynthID Detector определит, создан ли весь образец или только его часть искусственным интеллектом.

Дебют SynthID Detector состоялся в то время, когда интернет наводнили медиа, созданные искусственным интеллектом. Только количество дипфейковых видео выросло на 550% с 2019 по 2024 год, согласно одной из оценок. По данным The Times, из 20 самых просматриваемых постов в социальных сетях в США прошлой осенью четыре были «очевидно созданы искусственным интеллектом».

DeepMind SynthID

Конечно, у SynthID Detector есть свои ограничения. Он распознаёт только медиафайлы, созданные с помощью инструментов, использующих спецификацию Google SynthID, — в основном это продукты Google. У Microsoft есть собственные технологии добавления водяных знаков в контент, как и у Meta* и OpenAI.

SynthID также не является идеальной технологией. Google признаёт, что её можно обойти, особенно в случае с текстом.

Что касается первого пункта, Google утверждает, что стандарт SynthID уже используется в массовом масштабе. По данным технологического гиганта, с момента запуска SynthID в 2023 году более 10 миллиардов единиц медиаконтента были защищены водяными знаками SynthID.

Источник: TechCrunch

Интересно? Поделиться:

3 комментария для “Google выходит на борьбу с дипфейками: представлен SynthID Detector

  1. Отличная инициатива от Google! В эпоху, когда дипфейки становятся всё реалистичнее и опаснее, такие технологии просто необходимы. Надеюсь, SynthID Detector станет массово доступным и поможет распознавать фейки до того, как они успеют навредить. Хорошо, что ИИ начинают использовать не только для создания, но и для защиты.

  2. Эта новость меня радует. Дипфейки, действительно, могут быть очень опасны. Поэтому сейчас, как никогда, нужны инструменты, которые помогают людям отличать подделку от настоящего видео. Это важно.

  3. Что тут скажешь: сначала сами создавали инструменты для генерации дипфейков, теперь создают инструменты для опознания дипфейков. Все как всегда, но лучше поздно чем никогда.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *