← Вернуться к списку

ChatGPT сексист? Как гендерные маркеры в промпте влияют на решение задач

Краткое содержание

Громкий заголовок, но у меня есть пруфы. Все началось с персонального наблюдения. Я ML research engineer и, как многие из вас, активно использую AI не только для кодинга, но и для широкого спектра других задач: ищу релевантные статьи, анализирую open source-репозитории, составляю планы и так далее. Для разработки я выбираю Claude Code, а для анализа и сравнения статей часто прибегаю к GPT-5.4 Pro — спасибо оплаченной корпоративной подписке. С чатом я общаюсь на русском: так банально быстрее и точнее формулировки. Иногда проскальзывают «я-высказывания», например: «я уже попробовала такой и вот такой подход, их не надо включать в анализ». Поначалу я не видела в этом проблемы, но постепенно стала замечать, что в таких чатах ответы модели становятся как будто менее точными и детальными. Может, мне просто показалось? Но ощущение не исчезало, и в конце концов я решила провести небольшой ресерч.Весь код выложен на GitHub, буду рада, если кто-то воспользуется им и продолжит исследование. Весь

Полный текст статьи пока не загружен.