Рафаэль Надаль предупредил о фейковых видео с его участием

Рафаэль Надаль предупредил о фейковых видеороликах в Интернете, в которых он дает финансовые консультации, и о рисках, связанных с искусственным интеллектом.

Знаменитый теннисист, завершивший спортивную карьеру, во вторник заявил, что никогда не одобрял ни одно из этих онлайн-видео или их содержание.

«Я хочу поделиться предостерегающим посланием — это необычно для моих социальных сетей, но необходимо», — написал он в Linkedin. «В последние дни мы вместе с моей командой обнаружили фейковые видео, распространяющиеся на некоторых платформах. Они были созданы с помощью искусственного интеллекта, где фигурирует человек, имитирующий мой образ и голос. В этих видео мне ложно приписывают инвестиционные советы или предложения, которые ни в коем случае не исходят от меня».

Надаль подчеркнул, что это «вводящая в заблуждение реклама, не имеющая ко мне никакого отношения».

Он также отметил, что обществу предстоит научиться отличать подлинную информацию от манипуляций, а также продвигать этичное и ответственное использование технологий.

«Инновации неизменно приносят пользу, когда они служат людям, однако мы должны помнить о возможных рисках и проявлять критическое мышление», — сказал Надаль. — «Искусственный интеллект — это инструмент с огромным потенциалом, способный обеспечить значительный прогресс в сфере образования, медицины, спорта и коммуникаций. Но им также можно злоупотреблять, создавая ложный контент, который может вводить в заблуждение и обманывать многих людей».

Источник: AP

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

11 комментариев к “Рафаэль Надаль предупредил о фейковых видео с его участием

  1. Надаль подчеркнул, что не создавал и не одобрял такие материалы, и призвал быть внимательными к подобным контентам так что это нужно учитывать.

  2. «Инновации неизменно приносят пользу, когда они служат людям, однако мы должны помнить о возможных рисках и проявлять критическое мышление», — сказал Надаль. — «Искусственный интеллект — это инструмент с огромным потенциалом, способный обеспечить значительный прогресс в сфере образования, медицины, спорта и коммуникаций. Но им также можно злоупотреблять, создавая ложный контент, который может вводить в заблуждение и обманывать многих людей».
    Все верно сказал ,а они найдутся я имею мошеники которые будут использовать ИИ в злых целях.

  3. Надаль подчеркнул, что не создавал и не одобрял подобные материалы, призвав с осторожностью относиться к такому контенту и учитывать его возможную недостоверность.

  4. Полностью поддерживаю слова Рафаэля Надаля. Использование искусственного интеллекта для создания фейковых видео — это реальная угроза, которая может ввести в заблуждение огромное количество людей. Подобные подделки подрывают доверие и ставят под удар не только репутацию известных личностей, но и безопасность обычных пользователей. Люди могут потерять деньги или стать жертвами мошенников, поверив таким видео. Очень важно, чтобы платформы и общество в целом активнее боролись с этой опасной практикой.

  5. Влиятельные личности, такие как Рафаэль Надаль, все чаще становятся мишенью для дипфейков. Это подчеркивает растущую проблему дезинформации в цифровую эпоху и важность критического мышления при потреблении онлайн-контента. Предупреждение Надаля служит напоминанием о том, что нужно быть бдительными и проверять подлинность информации, которую мы видим в интернете.

  6. Такие предупреждения от известных личностей очень важны. Технологии дипфейков становятся всё более реалистичными, и без критического мышления легко поверить в подделку. Хорошо, что Надаль обратил внимание фанатов на эту проблему.

  7. Так этого и следовало ожидать. Распространение ИИ как и предсказывалось увеличит долю кибер преступлений связанных с личностью и его данными. Мошенники давно терроризируют малообразованную часть слабозащищенную часть населения, а теперь будет разводить и образованную:) Правда кто то будет пользоваться этим в качестве пиара.

  8. Вот это жуть, честно. Пугает не то, что технологии так далеко зашли, а то, как легко они могут обмануть обычного человека, особенно того, кто доверяет известным лицам. Надаль молодец, что предупредил, и таких фейков в сети еще пруд пруди…

  9. Разве не удивительно, как быстро распространяются подобные подделки? Кто может гарантировать, что каждый ролик, который мы видим, действительно настоящий? И почему люди так легко поддаются на такие уловки?

  10. В наше время нужно проверять всю информацию так как видео уже подделать не проблема.

  11. Дипфейки уже становятся бичом и проблемой.Пора вводить уголовное наказание не только за создание подобных видео, но и за обучение ИИ-моделей подобному.

Обсуждение закрыто.

Рекомендуем почитать

Фотографирование знаменитой девушки Новости

YouTube запустил расширенное обнаружение дипфейков: защита образа знаменитостей с помощью ИИ

23.04.2026 8
YouTube расширяет применение своей новой технологии «обнаружения сходства», которая выявляет созданный ИИ контент, например дипфейки, для людей из индустрии развлечений,…

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять
Политика конфиденциальности