Некоммерческая организация, стоящая за «Википедией», в среду раскрыла свою новую стратегию в области искусственного интеллекта на ближайшие три года — и, к счастью, она не собирается заменять сообщество редакторов и волонтёров «Википедии» искусственным интеллектом.
Вместо этого Фонд Викимедиа заявляет, что будет использовать ИИ для создания новых функций, которые «устранят технические барьеры» и позволят редакторам, модераторам и патрульным использовать инструменты, которые помогут им выполнять свою работу, не беспокоясь о том, как «технически это сделать».
Вместо этого организация заявляет, что будет использовать генеративный ИИ в определённых областях, где он особенно эффективен.
Это включает в себя создание рабочих процессов с использованием ИИ, которые автоматизируют утомительные задачи. Кроме того, ИИ будет использоваться для улучшения поиска информации в Википедии, предоставляя редакторам больше времени для обсуждения, необходимого для достижения консенсуса при создании, изменении и обновлении статей в Википедии.
ИИ также поможет редакторам, автоматизировав перевод, и будет участвовать в процессе адаптации новых волонтёров.
«Мы считаем, что наша будущая работа с ИИ будет успешной не только благодаря тому, что мы делаем, но и благодаря тому, как мы это делаем», — пишет Крис Албон, директор по машинному обучению в Фонде Викимедиа, вместе с Лейлой Зиа, директором и руководителем исследовательского отдела Фонда Викимедиа, в блоге, где они публикуют эту новость.
«В своей работе мы будем руководствоваться нашими давними ценностями, принципами и политикой (такими как конфиденциальность и права человека): мы будем использовать подход, ориентированный на человека, и отдавать приоритет человеческому участию; мы будем отдавать приоритет использованию ИИ с открытым исходным кодом или открытым весом; мы будем отдавать приоритет прозрачности; и мы будем использовать комплексный подход к многоязычности, которая является фундаментальной частью Википедии», — говорится в сообщении.
Организация также отметила, что поддержание базы знаний Википедии — это задача, которая стала ещё более важной с появлением генеративного ИИ, который, как известно, иногда допускает ошибки и выдаёт ложные ответы.
Источник: TechCrunch

Главный редактор
Социальные сети:
Telegram: https://t.me/creatorproject_ru
VK: https://vk.com/novosti_ai
Дзен: https://dzen.ru/ainewscp
RuTube: https://rutube.ru/channel/58102633/
YouTube: https://www.youtube.com/@creatorproject_ru
TikTok: https://www.tiktok.com/@creatorproject_ru
Likee: AI News (@creatorproject)
Платформа не собирается сокращать участие людей. Наоборот, разработчики подчёркивают, что ИИ должен помогать, а не заменять. Нововведение снимет технические барьеры и даст волонтёрам больше времени на содержание, обсуждение и проверку данных. Это особенно важно, так как «Википедия» строится на консенсусе между участниками.
Наконец-то ИИ используют не как замену людям, а как инструмент для рутины (переводов, фильтрации спама и прочее). Но тревожит вот что: ИИ не начнёт плодить «факты» из воздуха? Википедия строилась на проверяемости, а генеративный ИИ — лотерея (все еще может галлюцинировать). Нужен план, чтобы автоматизация не стала лазейкой для дезинформации. Если открытые алгоритмы и контроль человека останутся приоритетом, это шаг вперёд, а не модный тренд. Главное не превратить ИИ в нового бюрократа, который будет «учить» редакторов.