YouTube расширяет технологию выявления дипфейков: доступ получат политики, чиновники и журналисты

YouTube расширяет свою технологию распознавания внешности, которая выявляет созданные ИИ дипфейки, на пилотную группу чиновников, политических кандидатов и журналистов, сообщила компания во вторник. Участники пилотной группы получат доступ к инструменту, который обнаруживает несанкционированный контент, созданный ИИ, и позволяет им запрашивать его удаление, если они считают, что он нарушает политику YouTube.

Сама технология была запущена в прошлом году примерно для 4 миллионов авторов YouTube в рамках Партнёрской программы YouTube после более ранних тестов.

Смотрите видео на удобном для вас ресурсе!

Подобно существующей системе YouTube Content ID, которая выявляет защищённые авторским правом материалы в загружаемых пользователями видео, функция распознавания внешности ищет смоделированные лица, созданные с помощью инструментов ИИ. Эти инструменты иногда используют, чтобы попытаться распространять дезинформацию и манипулировать восприятием людьми реальности, задействуя дипфейковые образы известных персон — например, политиков или чиновников, — чтобы в этих ИИ-видео они говорили и делали то, чего в реальной жизни не говорили и не делали.

С новой пилотной программой YouTube стремится сбалансировать свободу выражения пользователей и риски, связанные с ИИ-технологией, способной создавать убедительное подобие публичной фигуры.

«Это расширение на самом деле касается целостности публичного обсуждения», — сказала Лесли Миллер, вице-президент YouTube по связям с государственными органами и публичной политике, на пресс-брифинге перед запуском во вторник. «Мы знаем, что риски ИИ-имперсонации особенно высоки для людей в гражданской сфере. Но, предоставляя этот новый щит, мы также осторожно подходим к тому, как его используем», — отметила она.

Источник изображения: YouTube

Миллер объяснила, что не все обнаруженные совпадения будут удаляться по запросу. Вместо этого YouTube будет оценивать каждый запрос в соответствии с действующими рекомендациями своей политики конфиденциальности, чтобы определить, является ли контент пародией или политической критикой — защищёнными формами свободного выражения.

Компания отметила, что она также выступает за эти защиты на федеральном уровне, поддерживая в Вашингтоне законопроект NO FAKES Act, который регулировал бы использование ИИ для создания несанкционированных реконструкций голоса и визуального облика человека.

Чтобы использовать новый инструмент, участники пилотного тестирования, соответствующие требованиям, должны сначала подтвердить личность, загрузив селфи и удостоверение личности государственного образца. Затем они могут создать профиль, просматривать появляющиеся совпадения и при желании запрашивать их удаление. YouTube сообщает, что со временем планирует предоставить людям возможность предотвращать загрузку нарушающего правила контента до его публикации или, возможно, позволить им монетизировать такие видео — аналогично тому, как работает система Content ID.

Компания не подтвердила, какие именно политики и чиновники войдут в число первых тестировщиков, но заявила, что цель — со временем сделать технологию широко доступной.

Источник изображения: YouTube

Такие ИИ-видео будут помечаться соответствующей меткой, однако размещение этих меток непоследовательно. В одних случаях метка появляется в описании видео, тогда как для роликов на более «чувствительные темы» метка будет показываться в начале видео. Такой же подход YouTube применяет ко всему контенту, созданному ИИ.

«Существует много контента, произведённого с использованием ИИ, но это различие на самом деле несущественно для самого контента», — объяснил Амджад Ханиф, вице-президент YouTube по продуктам для авторов, говоря о размещении метки. «Это может быть мультфильм, созданный с помощью ИИ. И поэтому, думаю, здесь требуется оценка того, относится ли это к категории, которая, возможно, заслуживает очень заметного дисклеймера», — сказал он.

YouTube пока не сообщает, сколько удалений таких ИИ-дипфейков было выполнено с помощью технологии обнаружения дипфейков, находящейся в распоряжении авторов, но отметил, что объём удалённого контента на данный момент был «очень небольшим».

«Думаю, для многих [авторов] это просто осведомлённость о том, что создаётся, но количество реальных запросов на удаление очень, очень низкое, потому что в большинстве случаев это оказывается довольно безобидным или добавляет ценность их общему бизнесу», — сказал Ханиф.

Однако с дипфейками чиновников, политиков или журналистов ситуация может быть иной.

Со временем YouTube намерен распространить свою технологию обнаружения дипфейков и на другие области, включая узнаваемые голоса и другие объекты интеллектуальной собственности, такие как популярные персонажи.

Источник: TechCrunch

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

6 комментариев к “YouTube расширяет технологию выявления дипфейков: доступ получат политики, чиновники и журналисты

  1. Хоть одна хорошая новость — борьба с дипфейками продолжается. Единственно меня удивило то, что это поручили чиновникам и журналистам. Судя по тому, как активно всё автоматизируется, я ожидал, что эту задачу поручат делать самостоятельно какому-нибудь специально обученному ИИ :))

  2. Предоставление политики, чиновникам и журналистам более надежных инструментов для обнаружения фальшивых видеоматериалов помогает обеспечить честность комментариев, снизить риск распространения ложных сведений и повысить доверие к информации в социальных сетях.

  3. Поскольку расширение технологии выявления дипфейков поможет бороться с дезинформацией и усилит доверие к публичным фигурам. Важно, чтобы такие инструменты были надежными и доступными для тех, кто принимает важные решения и информирует общество

  4. На мой взгляд, инициатива YouTube это важный шаг в борьбе с дезинформацией. Дипфейки способны серьёзно исказить общественное мнение, поэтому их своевременное выявление и пресечение распространения это необходимая мера. Особенно важно, что доступ к технологиям получат те, кто наиболее подвержен атакам с использованием фейкового контента. Однако стоит учитывать, что технологии выявления дипфейков должны быть максимально точными и не приводить к ложным срабатываниям. Также важно, чтобы доступ к инструментам не был ограничен лишь несколькими категориями пользователей. В перспективе полезно было бы распространить эти технологии шире.

  5. Интересный и важный шаг. Дипфейки становятся всё реалистичнее, и то, что платформа даёт политикам и журналистам инструмент для обнаружения и удаления поддельных видео, может серьёзно помочь в борьбе с дезинформацией. По сути, система работает как Content ID, только ищет не музыку или видео, а лицо человека в AI-сгенерированном ролике — если найден дипфейк, можно запросить удаление.

  6. Уже хорошая новость ,что дипфейки есть возможность идентифицировать и возможно ужалить. Жаль что это касается только политиков и журналистов. о может это пока. Уже знаю что дипфейк, созданный с образом молодой женщины, разрушил ее семью да и всю ее жизнь. Психологическая травма неизмерима…

Обсуждение закрыто.

Рекомендуем почитать

Пример генерации Maps Imagery Grounding Новости

Google представила новые корпоративные функции генеративного ИИ для Google Maps и Google Earth

25.04.2026 5
Google представила новые функции генеративного ИИ для своих картографических и геопространственных приложений, разработанные с прицелом на корпоративных пользователей. Новые возможности,…

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять
Политика конфиденциальности