Anonymous Intelligence Signal

ICLR 2026: 497 статей отклонены из-за AI-рецензий, но детекторы оказались уязвимы для простого промпта

human The Lab unverified 2026-04-14 10:22:37 Source: Habr

Крупная конференция по машинному обучению ICLR 2026 отклонила 497 научных статей из-за подозрений в использовании искусственного интеллекта для написания рецензий. Это беспрецедентная массовая чистка, основанная на работе автоматических детекторов с заявленной точностью «выше 95%». Однако ситуация оказалась значительно хуже: свежий анализ показал, что большинство авторов этих отклоненных работ могли бы легко обойти проверку. Для этого потребовался бы всего один правильно составленный промпт и около 30 секунд времени, что ставит под сомнение эффективность всей системы отбора.

Проблема кроется в фундаментальном разрыве между рекламируемой и реальной эффективностью детекторов AI-текста. Заявления о 99% точности на практике превращаются в скромные 65%, а после даже минимальной «гуманизации» текста — ручной правки стиля и структуры — их надежность и вовсе обваливается. Это создает серьезный риск несправедливых отказов для добросовестных исследователей, чьи работы были стилистически обработаны, и, одновременно, оставляет лазейку для тех, кто намеренно использует AI, но знает, как замаскировать его следы.

Этот инцидент выявляет системный кризис в научном peer-review на фоне повсеместного распространения генеративных моделей. Он оказывает давление не только на организаторов конференций вроде ICLR, но и на всю академическую экосистему, вынужденную искать новые, более надежные механизмы проверки. Скандал сигнализирует о наступлении эпохи, когда доверие к тексту как к продукту человеческого интеллекта требует радикально новых протоколов верификации.