Во время удалённых интервью такие «кандидаты» применяют технологии подмены лица - так называемые дипфейки (deepfake), позволяющие выдавать себя за другого человека. Чаще всего это делается с целью получить доступ к внутренней информации компании и затем использовать её в злоумышленных целях.
К 2028 году каждый четвёртый кандидат в мире может оказаться фальшивым
Онлайн-собеседования помогают экономить время и по-прежнему широко используются, например, в IT-сфере, где работа часто проходит как удалённо, так и в офисе, а компании конкурируют за таланты на международном уровне. Ранее об этой проблеме чаще говорили руководители компаний и специалисты по подбору персонала из стран Западной Европы и США. По данным прошлого года, 17% менеджеров по подбору персонала в США сталкивались с кандидатами, использовавшими технологию дипфейка для изменения лица и голоса (исследование карьерной платформы Resume Genius).
Однако сейчас эта тенденция распространяется по всему миру. Консалтинговая и исследовательская компания Gartner прогнозирует, что к 2028 году каждый четвёртый кандидат на работу в мире может быть фальшивым. Это означает, что проблема не обойдёт стороной и Латвию - компании уже начинают сталкиваться с подобными случаями. Развитие ИИ привело к тому, что создать убедительную подделку видеоинтервью стало сравнительно просто - достаточно фотографии или короткого видеоролика и нескольких секунд записи голоса человека. Фальшивые кандидаты могут находиться в любой стране мира, и риск заключается не только в финансовых потерях. Такие случаи усложняют процесс подбора персонала, делают его более длительным и дорогим, а также создают риски для добросовестных кандидатов.
Визуальные и поведенческие признаки, которые могут выдать фальшивого кандидата
Как же распознать такого кандидата и отличить добросовестного, но очень взволнованного участника интервью - возможно, с плохим интернет-соединением или камерой низкого качества - от человека, созданного с помощью дипфейка? К сожалению, во время интервью редко бывает один «магический момент», когда становится абсолютно ясно, что перед вами не настоящий человек. Обычно это совокупность нескольких признаков, на которые стоит обратить внимание. Первые сигналы чаще всего визуальные. Например, лицо кандидата может двигаться немного неестественно: взгляд «прыгает», движения губ не полностью совпадают с речью, контуры лица кажутся слегка размытыми или деформированными. Иногда тело движется в одном ритме, а лицо - в другом. Бывает, что человек вроде бы двигается в кресле, но его одежда остаётся неподвижной.
Есть и поведенческие признаки. Например, кандидат регулярно отказывается включить камеру или находит оправдания, почему это невозможно. Ответы на вопросы могут звучать очень идеально, но перед ними возникают длительные паузы - как будто кто-то слушает подсказки или читает текст. Иногда прямо перед ответом слышен звук нажатия клавиш. Ещё один риск - когда на одном этапе интервью появляется один человек, а позже к работе приступает совершенно другой.
Закон ЕС об ИИ не запрещает дипфейки
Если потенциальный работодатель приходит к выводу, что во время интервью он разговаривает с дипфейком, он не обязан продолжать процесс отбора. Однако важно, чтобы решение не основывалось на субъективных предположениях (например, внешности, акценте или технических проблемах), а было основано на конкретных и задокументированных признаках. Закон Европейского союза об искусственном интеллекте не запрещает саму технологию дипфейков, но требует прозрачности и чёткого информирования. Если создаётся дипфейк-видео, голос или изображение, должно быть ясно и недвусмысленно указано, что оно создано искусственно. Если кандидат не сообщает об этом во время собеседования, это считается нарушением соответствующего регулирования.
Возможные механизмы проверки
Важно помнить, что эффекты, похожие на дипфейки, могут возникать и из-за плохого интернет-соединения, низкого качества камеры, усталости или технических проблем. Чтобы из-за этого не пострадали добросовестные кандидаты и чтобы сама компания не подвергалась дополнительным рискам, рекомендуется внедрять сразу несколько механизмов проверки. Например, проверку личности (в соответствии с Общим регламентом по защите данных - можно обрабатывать только те данные, которые необходимы для конкретной цели, и кандидат должен быть информирован о цели обработки данных), запись интервью (с предварительным уведомлением), анализ цифрового следа кандидата или сравнение между несколькими этапами интервью. Иногда дипфейк невозможно распознать во время одного разговора - это скорее вопрос внимательности, опыта и дополнительных мер безопасности.
Автоматизация не может полностью заменить профессиональное суждение
Феномен дипфейков очень наглядно показывает, что искусственный интеллект не является панацеей, автоматически решающей все проблемы. Любое технологическое достижение одновременно создаёт и новые риски. ИИ действительно помогает структурировать поток резюме, выявлять наиболее подходящих кандидатов, анализировать компетенции и ускорять процесс отбора. Однако он также предоставляет инструменты тем, кто хочет обойти систему. Автоматизация не может полностью заменить профессиональное суждение, критическое мышление и необходимые меры безопасности. В компании Helmes Latvia мы всегда призываем клиентов и партнёров тщательно оценивать необходимость и соразмерность внедрения решений на базе искусственного интеллекта. Внедрение технологий должно происходить вместе с чёткими механизмами безопасности, продуманными внутренними процессами и обучением сотрудников.
ИИ может значительно облегчить процесс подбора персонала, однако мы не должны слепо ему доверять. Ключ - в балансе: важно обеспечить человеческий контроль и возможность вмешательства в автоматизированные решения (так называемый принцип human in the loop). Мы можем использовать преимущества технологий, одновременно осознавая риски и потенциальные сценарии их злоупотребления.
Виестурс Буланс, руководитель «Helmes Latvia».











