Бывший сотрудник Департамента труда рассказал, как составить резюме, которое принесет много откликов
15.09.2025, 10:00 EST
ForumDaily New York
Все больше работодателей используют системы отслеживания резюме на основе искусственного интеллекта. Эти технологии помогают быстрее сортировать анкеты, но могут и усиливать скрытые предубеждения. Insider рассказывает, как составить резюме, которое принесет много откликов.
Эксперты предупреждают, что отсутствие контроля со стороны человека приводит к дискриминации кандидатов и юридическим рискам для компаний.
Искусственный интеллект и предвзятость
Искусственный интеллект называют «обоюдоострым мечом». С одной стороны, он способен снижать предвзятость стандартизируя процесс рассмотрения резюме. С другой — при плохо настроенных или не протестированных алгоритмах предвзятость только усиливается.
Защищенные группы рискуют оказаться в неблагоприятном положении. Однако данные редко кто проверяет. Часто именно это и становится проблемой.
Системы отслеживания кандидатов могут быть предвзятыми, как заявил Род Самра, бывший следователь Департамента труда. За свою карьеру он провел аудит автоматизированных систем проверки резюме сотен компаний. Самра делится с читателями своими выводами и рекомендациями.
Скрытые механизмы дискриминации
Предвзятость в системах бывает незаметной. Алгоритмы могут отдавать предпочтение мужчинам перед женщинами. Даже если в резюме пол напрямую не указан, система может определить его по деталям, например по упоминанию членства в студенческом братстве или сестринстве.
На это указывает и громкое судебное дело Mobley v. Workday, где заявляется о подобной дискриминации.
Жесткие формулировки и фильтры
Еще одна проблема — чрезмерная буквальность систем. Если в вакансии написано «лидерские качества», программа ищет именно эту фразу. Кандидат, который написал «я руководил командами» или «у меня большой опыт лидерства», может быть отклонен.
По теме: О чем лучше врать на собеседовании: советы специалиста по построению карьеры
Существуют и исключающие фильтры: по почтовому индексу, году окончания университета, нетрадиционному карьерному пути или нестандартным дипломам. Все это может приводить к дискриминации. При этом работодатели часто даже не знают, что система работает именно так.
Самра сравнил это с камерой наблюдения: запись есть, но никто ее не смотрит.
Быстрые автоматические отказы
Многие соискатели не подозревают, что их отбирают алгоритмы. Но есть признаки, например:
- отказ приходит за несколько минут или часов, даже если резюме полностью соответствует вакансии;
- система сообщает, что резюме «не удалось обработать» или «не соответствует минимальным критериям», но не объясняет деталей;
- анкета требует указать лишние личные данные, например точную дату рождения или год окончания учебы, что становится скрытым способом дискриминации.
Непрозрачные тесты и отсутствие обратной связи
Проблемой становятся и тесты с оценкой ИИ — видеособеседования или игровые задания.
Работодатель не объясняет, какие критерии проверяются и как оцениваются баллы.
Исследования показывают, что такие методы создают предвзятость. Она проявляется через распознавание лиц, анализ речи или культурные особенности. Это может ухудшать шансы кандидатов с инвалидностью, нейроотличиями или неродным акцентом.
Еще один признак — отсутствие конкретики в ответах. Соискатель получает формулировки вроде «вы не подошли» без объяснений. Этичные практики требуют хотя бы минимальной прозрачности.
Как повысить шансы
Чтобы увеличить шансы пройти автоматический отбор и попасть к живому менеджеру, эксперты советуют:
- использовать в резюме те же формулировки, что и в описании вакансии;
- фиксировать все отклики, отказы и возможные закономерности;
- знать свои права и при необходимости подавать жалобы в Комиссию по равным возможностям трудоустройства (EEOC).
В некоторых штатах США, например в Иллинойсе и Нью-Йорке, работодатели обязаны раскрывать факт применения ИИ при найме.