Учёные из Калифорнийского университета в Беркли и Корнеллского университета провели масштабный анализ влияния больших языковых моделей (ИИ) на подготовку научных публикаций. Они изучили около 2 миллионов статей с сайтов arXiv, bioRxiv и SSRN, опубликованных с 2018 по середину 2024 года. Результаты оказались противоречивыми: ИИ одновременно помогает и вредит науке.
С одной стороны, использование ИИ резко увеличило количество подаваемых работ, особенно среди учёных из Азии и носителей других языков. На некоторых платформах рост составил до 100%. ИИ помогает преодолеть языковой барьер, делает тексты лингвистически сложнее и понятнее, а также улучшает библиографию, добавляя актуальные ссылки.
С другой стороны, исследования, написанные с помощью ИИ, реже проходят рецензирование и публикуются в журналах. Учёные выявили опасный разрыв: за красивым, отполированным текстом часто скрывается научно слабая работа. ИИ может создавать убедительный «фасад», который маскирует недостаточную глубину или оригинальность.
Авторы исследования отмечают, что их оценка может быть занижена — многие учёные используют ИИ для черновиков, а затем полностью переписывают текст, удаляя следы ИИ. Пока ситуацию спасают рецензенты, которые вручную проверяют работы. Однако, если и они начнут массово использовать ИИ для оценки, контроль качества может резко ухудшиться.
Вывод учёных: ИИ — мощный инструмент для коммуникации в науке, но его бесконтрольное применение угрожает размыть стандарты научной строгости. Необходимы новые механизмы проверки, которые отделят форму от содержания.















