Google тихо отказалась от обещания не создавать опасный ИИ

Google тихо отказалась от обещания не создавать опасный ИИ

Google исключила из своих принципов использования искусственного интеллекта пункт, в котором содержалось обещание избегать применения технологии в потенциально вредных целях, включая разработку оружия.

Ранее в документах компании существовал раздел под названием «Применения ИИ, которые мы не будем развивать», где перечислялись «технологии, которые причиняют или могут причинить общий вред», включая оружие. Однако, как сообщает Bloomberg, этот текст больше не представлен на странице.

В ответ на запрос о комментарии Google сослалась на блог , опубликованный во вторник. В нем старший вице-президент Google Джеймс Маника и глава Google DeepMind Демис Хассабис заявили: «Мы верим, что демократии должны лидировать в разработке ИИ, опираясь на такие ценности, как свобода, равенство и уважение прав человека».

Google также прокомментировала изменения для TechCrunch, сославшись на новый блог об «ответственном ИИ». В нем говорится: «Мы верим, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создавать ИИ, который защищает людей, способствует глобальному развитию и поддерживает национальную безопасность».

Маргарет Митчелл, бывший сопредседатель команды Google по этике ИИ, а ныне главный специалист по этике в стартапе Hugging Face, считает, что это изменение может повлиять на работу компании. «Удаление этого пункта стирает достижения многих специалистов и активистов в сфере этики ИИ. Это также может означать, что Google, вероятно, теперь готова разрабатывать технологии, способные убивать людей», — заявила она.

Экс-глава направления «Ответственный ИИ» в Google Cloud Трейси Пиццо Фрей отметила, что принципы ИИ помогали её команде анализировать свою работу и повышать качество продуктов. «Ответственный ИИ создает доверие, а без доверия невозможно добиться успеха», — сказала она.

В последние годы Google подвергался критике за сотрудничество с военными США и Израиля, поставляя им облачные вычислительные мощности. Хотя компания заявляет, что ее технологии не используются для нанесения вреда, глава Пентагона по ИИ недавно сообщил TechCrunch, что модели некоторых компаний уже ускоряют процесс принятия решений в «цепочке уничтожения» американской армии.

Изменение политики Google совпадает с общим трендом среди крупных технологических компаний. В январе Meta* свернула часть инициатив по диверсификации персонала, отменив обязательные интервью для кандидатов из недостаточно представленных групп. В тот же период Amazon прекратил ряд программ по инклюзивности, назвав их устаревшими.

Внутри Google споры о балансе между этическими принципами и конкурентной гонкой ведутся давно. С момента выхода ChatGPT в 2022 году компания испытывает давление и стремится сохранить лидерство в ИИ. В 2023 году некоторые сотрудники выражали опасения, что ради конкуренции Google идет на компромиссы в этических вопросах.

* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.

Источник: SecurityLab.ru

Интересно? Поделиться:

6 комментариев для “Google тихо отказалась от обещания не создавать опасный ИИ

  1. Если информация верна, это тревожный сигнал для всей индустрии ИИ 🤖. Обещания технологических гигантов о безопасном развитии ИИ всегда вызывали вопросы, но теперь главная проблема — где проходит граница между полезным и потенциально опасным искусственным интеллектом? 🧐 Будет ли больше прозрачности в разработке или мы увидим гонку за мощным ИИ без ограничений? Делитесь мнениями! 🔥⚡

  2. Отход Google от своего обязательства избегать опасного ИИ вызывает беспокойство. Это поднимает важные вопросы о том, где мы проводим черту и что это значит для будущего развития ИИ. Будут ли компании отдавать приоритет этике или будут стремиться к власти, не задумываясь о последствиях?

  3. Это тревожный сигнал, но не совсем неожиданно. Многие технологические гиганты изначально дают громкие обещания в области этики ИИ, но по мере развития технологий и конкуренции их приоритеты могут меняться.

    Если Google действительно ослабила свои ограничения по созданию потенциально опасного ИИ, это может быть связано с:
    Давлением конкуренции — OpenAI, Microsoft и другие активно развивают мощные модели.
    Военными и государственными интересами — ИИ становится стратегически важной технологией.
    Сложностью регулирования — компаниям трудно предугадать, какие модели окажутся

  4. Это тревожный сигнал, но не совсем неожиданно. Многие технологические гиганты изначально дают громкие обещания в области этики ИИ, но по мере развития технологий и конкуренции их приоритеты могут меняться.
    Если Google действительно ослабила свои ограничения по созданию потенциально опасного ИИ, это может быть связано с:
    Давлением конкуренции — OpenAI, Microsoft и другие активно

  5. Это тревожный сигнал для всего ИИ-сообщества и, возможно, для криптоиндустрии тоже. Если крупные корпорации начнут игнорировать этические ограничения, может ли это привести к манипуляциям на крипторынке? Как думаете, стоит ли ожидать новых регуляторных мер или все останется на усмотрение компаний?

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *