Как ошибаются нейросети. Забавные и печальные случаи

Робот пугает человека

Ошибки при работе с нейросетями встречаются довольно часто и могут быть как забавными, так и печальными. Эти ошибки вызываются сложностью ИИ, а также тем, что нейросети обучаются на данных, которые им предоставляют. Когда эти данные или их интерпретация отклоняются от реальности, возникают курьезные, а иногда и серьезные ошибки.

GPT-3 предлагала положить паяльник в пирог

Одним из самых забавных и в то же время поучительных примеров является работа нейросети, занимающейся генерацией текстов на основе заданных параметров. Одна из таких нейросетей, GPT-3 (предшественник GPT-4), обучалась на обширных наборах текстов, охватывающих огромное количество тем. В то же время, несмотря на свою находчивость и способность генерировать осмысленные ответы, GPT-3 иногда демонстрировала весьма неожиданные результаты. Например, один пользователь задал GPT-3 вопрос о рецепте яблочного пирога, и нейросеть предложила добавить в начинку… паяльник. Ответ, разумеется, был совершенно бессмысленным, но вызвал немало улыбок у пользователей, которые осознали, что несмотря на интеллектуальные возможности, нейросеть все еще не может полностью заменить человека.

Робот повар

Источник: изображение создано при помощи нейросети Dall-E, доступной на сервисе Creator Project

Известен и случай, когда эта же нейросеть рекомендовала фаст-фуд в качестве того вида питания, которое помогает «укрепить иммунитет». Кстати, нейросеть Google AI также известна своими нетипичными ответами. Считается, что она часто склонна проявлять слишком большую угодливость в адрес человека. Например, один из пользователей спросил у нее о пользе ковыряния в носу. Искусственный интеллект ответил, что «слизь служит профилактикой кариеса, а также позволяет предотвратить кариес».

Tay – нейросеть, которая позволяла себе слишком многое

Однако, ошибки нейросетей могут быть не только забавными, но и отражать серьезные проблемы, особенно когда речь идет о сборе и использовании данных. В 2016 году произошел инцидент с другой системой искусственного интеллекта, разработанной компанией Microsoft. Эта нейросеть, по имени Tay, была запущена в Twitter с целью взаимодействия с пользователями и обучения на их ответах – в основном, с нейросетью общалась молодежь.

Девушка робот

Источник: изображение создано при помощи нейросети Dall-E, доступной на сервисе Creator Project

Однако уже через несколько часов после запуска оказалось, что Tay начала генерировать крайне оскорбительные и неприемлемые комментарии. Пользователи, осознав слабость системы, начали целенаправленно «учить» ее радикальным и агрессивным высказываниям. Менее чем через сутки компания Microsoft была вынуждена выключить Tay и приостановить проект. Этот случай наглядно показал, что нейросети могут быть подвержены влиянию и манипуляциям, если они обучаются на неподходящих или целенаправленно искаженных данных.

В дальнейшем нередки были случаи, когда пользователи нейросетей намеренно пытались вывести искусственный интеллект из-под рамок цензуры. Для этого они создавали специальные списки программ, при помощи которых якобы можно было «взломать» нейросеть. Однако разработчики быстро заметили этот момент, и в настоящее время взломать нейросети – задача из области фантастики.

«Хрупкость» в работе с новой информацией

Современные системы искусственного интеллекта, которые обычно с высокой точностью распознают школьные автобусы, сталкиваются с серьезными трудностями, когда автобус перевернут и лежит на боку. Исследование 2018 года показало, что в среднем в 97% случаев ИИ не смог правильно идентифицировать перевернутый автобус, вместо этого ошибочно принимая его за снегоуборочную машину. Сейчас, конечно, нейросети стали совершеннее; но подобные ошибки все же до сих пор могут возникать.

Как говорит компьютерный ученый Анх Нгуен из Университета Обурна (США), это пример «хрупкости» ИИ. Проблема состоит здесь в том, что системы искусственного интеллекта зачастую способны распознавать только те шаблоны, с которыми они уже сталкивались раньше. Как только им показывают нечто новое, они легко сбиваются с толку.

Девушка и ногиИсточник: изображение создано при помощи нейросети Dall-E, доступной на сервисе Creator Project

Подобные провалы ИИ можно наблюдать во множестве других ситуаций. Простое размещение наклеек на дорожном знаке «Стоп» может заставить ИИ неверно его прочитать. Даже изменение одного пикселя на изображении способно убедить систему, что лошадь – это лягушка. А о генерации курьезных изображений при помощи искусственного интеллекта и говорить не приходится – нейросети постоянно генерируют картинки людей, у которых на руках по семь пальцев или же футболистов с тремя ногами. Но ошибки ИИ имеют и довольно-таки серьезные последствия. Нейронные сети могут с уверенностью в 99.99% определять статичный шум как изображение льва. Медицинские снимки могут быть незаметно модифицированы так, что ИИ диагностирует рак с вероятностью 100% без каких-либо на то оснований.

Интересно? Поделиться: