Компания OpenAI опубликовала отчет, в котором подробно описаны «ключевые области риска» последней версии крупной языковой модели GPT-4o и способы избежать их.
В одном случае специалисты OpenAI обнаружили, что расширенный голосовой режим модели, позволяющий общаться с ChatGPT, начал неожиданно разговаривать имитированным голосом самого пользователя. В какой-то момент ChatGPT посреди ответа на запрос человека внезапно закричал «Нет!», а потом начал говорить сгенерированным голосом.
Специалисты OpenAI объяснили, что это произошло из-за того, что шум в вводимых пользователем данных сбил модель с толку и заменил авторизованный образец голоса в системной подсказке на звуковой ввод от человека.
Компания также отметила,что риск непреднамеренного копирования голоса остается «минимальным». OpenAI уже заблокировала такую функцию.
Источник: Naked Science
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Статьи и новости о нейросетях и искусственном интеллекте, просто и понятно о сложных технологиях. Освещает современные тенденции, объясняет, как работают ИИ-системы, и показывает, каким образом нейросети меняют различные сферы жизни. Регулярно собирает подборки и топы полезных нейросетей, тщательно отбирая актуальные инструменты и сервисы, которые могут существенно упростить рабочие и повседневные задачи. В своих подборках делится описаниями возможностей каждой нейросети, а также рекомендациями по их применению, чтобы помочь читателям быстро разобраться в новых технологиях и использовать их с максимальной пользой.
Социальные сети автора:






Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: