Исследователи разработали новый алгоритм под названием xFakeSci, предназначенный для выявления поддельных научных работ, созданных с помощью систем искусственного интеллекта, таких как ChatGPT. Этот алгоритм, подробно описанный в недавнем исследовании, опубликованном в журнале Scientific Reports, использует передовые методы машинного обучения для выявления контента, созданного ИИ, с поразительной точностью.
Рост числа текстов, сгенерированных искусственным интеллектом, стал серьезной проблемой для академического сообщества, поскольку эти системы могут создавать весьма убедительные поддельные научные работы. Алгоритм xFakeSci решает эту проблему, анализируя различные аспекты текста, включая лингвистические паттерны, стили цитирования и связность контента, чтобы отличить работы, написанные человеком, от работ, сгенерированных ИИ. Первые тесты показали, что xFakeSci может идентифицировать контент, созданный искусственным интеллектом, с точностью от 80 до 94%.
Эта разработка особенно важна для поддержания целостности научной литературы. Создатели алгоритма подчеркивают, что он может быть интегрирован в процессы рецензирования и платформы академических изданий для предотвращения распространения мошеннических исследований.
Результаты исследования подробно изложены в журнале Scientific Reports.
Источник: Новая Наука
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Статьи и новости о нейросетях и искусственном интеллекте, просто и понятно о сложных технологиях. Освещает современные тенденции, объясняет, как работают ИИ-системы, и показывает, каким образом нейросети меняют различные сферы жизни. Регулярно собирает подборки и топы полезных нейросетей, тщательно отбирая актуальные инструменты и сервисы, которые могут существенно упростить рабочие и повседневные задачи. В своих подборках делится описаниями возможностей каждой нейросети, а также рекомендациями по их применению, чтобы помочь читателям быстро разобраться в новых технологиях и использовать их с максимальной пользой.
Социальные сети автора:






Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: