ChatGPT показывает гендерный уклон: промпты с женскими маркерами получают менее точные ответы
Исследование, проведенное ML-инженером, выявило тревожную аномалию: ответы ChatGPT становятся менее точными и детальными, когда пользователь в промптах использует гендерные маркеры, указывающие на женский пол. Начавшись с личного наблюдения, эксперимент перерос в систематический анализ, код для которого выложен в открытый доступ. Исследовательница, активно использующая GPT-4 Pro для анализа статей и других задач, заметила, что формулировки вроде «я уже попробовала такой подход» — типичные «я-высказывания» в русскоязычном диалоге — коррелируют со снижением качества ответов модели.
Для проверки гипотезы был проведен контролируемый эксперимент. Промпты, идентичные по смыслу и сложности, но различающиеся только использованием местоимений и глагольных окончаний («сделал» vs «сделала»), отправлялись модели. Предварительные результаты указывают на статистически значимую разницу в глубине, детализации и, в некоторых случаях, фактической точности генерируемых текстов. Это не единичный «галлюцин», а воспроизводимый паттерн, ставящий под вопрос объективность работы ИИ.
Открытый код исследования на GitHub приглашает сообщество к верификации и углубленному изучению проблемы. Выявленный уклон — не просто академический курьез. Он создает реальные риски для профессионалов, чья работа зависит от качества AI-ассистентов: аналитиков, исследователей, разработчиков. Систематическая ошибка в core-логике ответов популярнейшей модели может искажать процессы принятия решений и снижать эффективность труда. Инцидент требует срочного внимания со стороны OpenAI и ставит под сомнение заявления о нейтральности крупных языковых моделей.