Десятки статей в год — это не гений, а нейросеть: почему возник кризис научных публикаций

От фабрик фейков в Китае до новостей без фактчекинга в российских СМИ


Фундаментальная наука начинает "уплывать" от реальных исследований

Западные и азиатские СМИ в унисон констатируют: научные издания погрузились в глубокий кризис, и виной тому — повсеместное внедрение искусственного интеллекта.

Редакции престижных журналов и открытых архивов (препринтов) буквально захлёбываются под лавиной статей, созданных нейросетями. Такие тексты часто грешат вымышленными цитатами, абсурдными ссылками и стоковыми иллюстрациями сомнительной уместности.

Статистика шокирует: в 2024-2025 годах зафиксированы случаи, когда отдельные «сверхпродуктивные» исследователи умудрялись подавать по 70 научных работ за год. Хотя средний показатель по всем научным дисциплинам не превышает отметку в 15-17 публикаций.

Отчасти этот феномен можно считать положительным — ИИ действительно стал мощным инструментом, повышающим производительность. Особенно для учёных из неанглоязычных стран, которым технологии помогают грамотно оформить и представить свои изыскания.

Однако эксперты бьют тревогу: ChatGPT и его аналоги столь же активно используются для штамповки откровенно некачественных работ, придавая им глянцевый лоск академического правдоподобия.

Фабрики фейков и конвейер низкопробных статей

Ситуация достигла промышленных масштабов в Китае, где, как пишут местные СМИ, уже работают целые подпольные «фабрики научных статей».

Используя генеративный ИИ, один такой «исполнитель» может штамповать десятки фейковых работ в неделю. Спрос на подобный конвейер порождает порочная система оценки учёных, где главным KPI часто считается количество публикаций, а не их качество или значимость.

В итоге серьёзные научные издания тонут в бескрайнем море текстов, большая часть которых не представляет никакой научной ценности. Редакторам и рецензентам становится всё сложнее выудить из этого потока работы, действительно заслуживающие внимания.

И здесь проявляется главная ирония нашей цифровой эпохи: для борьбы с напастью, которую породил ИИ, предлагается использовать всё тот же ИИ, только «добрый» — настроенный на поиск «плохих» текстов, сгенерированных большими языковыми моделями. Получается цифровая версия сказки про «клин клином».

Мир ищет спасательный круг: от меток до профессиональной этики

При этом, в Китае с 1 марта 2025 года вступили в силу правила, обязывающие маркировать контент, созданный нейросетями. Такие материалы должны содержать специальные скрытые метки в метаданных. Регулятор подчёркивает, что закон не запрещает использование ИИ, а лишь делает его прозрачным.

Похожий закон, призванный помечать ИИ-контент, уже действует в Евросоюзе. В 2023 году аналогичное распоряжение о разработке механизмов подтверждения происхождения цифровых материалов было подписано и в США.

«Генерируй новости нейросетью или уволим!»

Между тем, проблема уже вышла далеко за рамки академических журналов. Руководство многих федеральных и региональных интернет-СМИ в погоне за скоростью и экономией начинает требовать от сотрудников активно использовать нейросети для написания новостей.

Это — нормально. Не нормально то, что часть коллег, получив такой «полуфабрикат» от ИИ вообще не утруждает себя фактчекингом и даже не пытается исправить вопиющие смысловые ляпы и логические нестыковки, которые щедро генерирует плохо «натренированный» AI-помощник.

Остаётся открытым вопрос: а что делать?

Стоит ли у нас вводить строгие правила для обязательной маркировки всего текстового контента, включая новости, который был полностью создан искусственным интеллектом? Или доверимся здравому смыслу читателей и профессиональной этике авторов?

 

Источник: vc.ru