Галлюцинации ИИ: почему инженеры видят «баг», а пользователи — обман
Пользователи массово возмущаются, когда нейросети «галлюцинируют» — выдают ложную информацию или игнорируют контекст. Разработчики сначала отмахивались классическими отговорками вроде GIGO («мусор на входе — мусор на выходе») и RTFM («читай инструкцию»), но давление со стороны рынка заставило их взяться за проблему. Инженерный подход сводит галлюцинации к математическому багу, который нужно исправить, чтобы ИИ работал как «психически сохранный» человек, а не как шизофреник.
Автор, клинический психолог, удивлена масштабом этой острой реакции. В своей практике она системно натренирована видеть «баги мышления» и галлюцинации у людей и относиться к этому спокойно. Столкнувшись с первой галлюцинацией ИИ, она не разозлилась, а просто указала системе на несоответствие. Этот профессиональный навык работы с абсурдом оказался ключевым.
Однако одного этого объяснения недостаточно — оно мгновенно возносит психотерапевтов в ранг экспертов по ИИ. Конфликт раскрывает более глубокий разрыв: инженеры и пользователи смотрят на одну проблему через принципиально разные линзы. Для первых это техническая неполадка, для вторых — нарушение базового доверия к инструменту. Этот диссонанс создает фундаментальное давление на всю индустрию разработки ИИ, заставляя ее искать решения вроде RAG (Retrieval-Augmented Generation), но не снимая основного вопроса о природе «разума» машины и ожиданий от него.