AI w HR pod lupą regulatorów. Kiedy system rekrutacyjny staje się „high risk”

Jeszcze kilka lat temu sztuczna inteligencja w HR była traktowana jako ciekawostka technologiczna. Dziś jest codziennym narzędziem wielu działów personalnych. Systemy analizują setki CV w kilka sekund, pomagają selekcjonować kandydatów i sugerują, kto najlepiej pasuje do organizacji.

To ogromna zmiana w sposobie prowadzenia rekrutacji. W dużych firmach jedna oferta pracy potrafi przyciągnąć nawet kilka tysięcy zgłoszeń. W takiej skali automatyzacja jest dla rekruterów ogromnym wsparciem. Jednocześnie regulatorzy zaczęli uważnie przyglądać się temu, jak działają algorytmy rekrutacyjne. Właśnie dlatego unijna regulacja AI Act wprowadza szczególne zasady dla systemów używanych w procesach zatrudnienia. Dla wielu firm najważniejsze pytanie brzmi: kiedy system HR staje się systemem wysokiego ryzyka.

Dlaczego HR znalazł się w centrum regulacji

Decyzje dotyczące zatrudnienia mają bezpośredni wpływ na życie ludzi. O tym, czy ktoś dostanie pracę, zdecyduje często pierwszy etap selekcji. Jeśli ten etap obsługuje algorytm, pojawia się ryzyko błędów lub dyskryminacji.

Regulatorzy wskazują kilka powodów, dla których AI w HR wymaga szczególnej ostrożności.

Najczęściej wymienia się:

  • możliwość powielania uprzedzeń obecnych w danych historycznych
  • brak przejrzystości działania algorytmów
  • trudność w wyjaśnieniu decyzji systemu
  • ryzyko automatycznego odrzucania kandydatów bez udziału człowieka

Ciekawostka z rynku HR tech: według analiz branżowych nawet 75 procent dużych organizacji korzysta z narzędzi wspierających automatyczną selekcję CV.

Kiedy system rekrutacyjny staje się systemem wysokiego ryzyka

AI Act zalicza do kategorii wysokiego ryzyka systemy sztucznej inteligencji używane w procesach związanych z zatrudnieniem.

Dotyczy to zwłaszcza narzędzi wykorzystywanych do:

  • selekcji kandydatów
  • oceny kompetencji
  • podejmowania decyzji o zatrudnieniu
  • oceny pracowników

W praktyce oznacza to, że większość systemów AI używanych w rekrutacji może zostać uznana za rozwiązania wysokiego ryzyka.

Szczególnie dotyczy to systemów, które:

  1. automatycznie analizują CV i tworzą ranking kandydatów
  2. oceniają dopasowanie do stanowiska na podstawie danych historycznych
  3. analizują wideo rozmów kwalifikacyjnych
  4. przewidują przyszłą wydajność pracownika
  5. filtrują kandydatów bez udziału człowieka

Jeżeli system realnie wpływa na decyzję o zatrudnieniu, regulatorzy traktują go bardzo poważnie.

Scoring CV. Automatyczna selekcja kandydatów

Jednym z najczęściej używanych narzędzi jest tzw. scoring CV.

Polega on na tym, że algorytm analizuje dokumenty aplikacyjne i przyznaje kandydatom określoną liczbę punktów. System bierze pod uwagę różne elementy:

  • doświadczenie zawodowe
  • wykształcenie
  • umiejętności techniczne
  • historię zatrudnienia
  • dopasowanie słów kluczowych

Na tej podstawie powstaje ranking kandydatów. Rekruter widzi listę osób najlepiej dopasowanych do stanowiska.

Ciekawostka z praktyki rekrutacyjnej: w wielu systemach pierwszą selekcję przechodzi tylko 10 do 20 procent aplikacji.

Jeśli taki scoring ma realny wpływ na to, kto trafia do kolejnego etapu rekrutacji, system może zostać zakwalifikowany jako rozwiązanie wysokiego ryzyka.

Automatyczne oceny kandydatów

Jeszcze bardziej zaawansowane narzędzia analizują zachowanie kandydatów podczas rozmów kwalifikacyjnych.

Niektóre systemy wykorzystują:

  • analizę głosu
  • analizę mimiki twarzy
  • analizę sposobu wypowiedzi
  • ocenę poziomu stresu

Na tej podstawie algorytm może sugerować, czy kandydat jest odpowiedni na dane stanowisko.

Właśnie tego typu technologie wzbudzają największe kontrowersje.

Ciekawostka: część krajów zaczęła już ograniczać stosowanie analizy emocji w procesach rekrutacyjnych, ponieważ skuteczność takich metod bywa kwestionowana przez naukowców.

Obowiązki dokumentacyjne dla firm

Jeżeli system rekrutacyjny zostanie uznany za rozwiązanie wysokiego ryzyka, przedsiębiorstwo musi spełnić szereg obowiązków.

Najważniejsze z nich dotyczą dokumentacji i kontroli działania systemu.

Dokumentacja techniczna

Firma powinna posiadać szczegółowy opis systemu AI.

Dokumentacja powinna obejmować między innymi:

  • sposób działania algorytmu
  • cel wykorzystania systemu
  • rodzaje danych wykorzystywanych przez model
  • metody testowania skuteczności

Dzięki temu regulator lub audytor może sprawdzić, jak system podejmuje decyzje.

Ocena ryzyka

Organizacja musi przeanalizować potencjalne zagrożenia związane z użyciem systemu.

Przykładowe pytania, które pojawiają się w takiej analizie:

  • czy system może dyskryminować określone grupy kandydatów
  • czy dane treningowe są reprezentatywne
  • czy model może popełniać systematyczne błędy

Nadzór człowieka

Jedną z najważniejszych zasad AI Act jest kontrola człowieka nad działaniem algorytmu.

W praktyce oznacza to, że:

  • decyzja o zatrudnieniu nie może być podejmowana wyłącznie przez system
  • rekruter powinien móc zakwestionować wynik algorytmu
  • pracownik powinien rozumieć, jak działa system

Monitorowanie systemu

Po wdrożeniu systemu firma musi regularnie sprawdzać, czy działa on prawidłowo.

Monitorowanie może obejmować:

  • analizę wyników rekrutacji
  • wykrywanie potencjalnej dyskryminacji
  • testowanie jakości rekomendacji systemu

Przejrzystość wobec kandydatów

AI Act wzmacnia również prawa osób uczestniczących w procesach rekrutacyjnych.

Kandydaci powinni wiedzieć, że ich aplikacja jest analizowana przez system AI.

W praktyce oznacza to konieczność informowania o tym między innymi:

  • w ogłoszeniach o pracę
  • w polityce prywatności
  • w komunikacji z kandydatem

Coraz częściej pojawia się także postulat, aby kandydat miał możliwość uzyskania wyjaśnienia decyzji systemu.

AI w HR. Technologia, która wymaga odpowiedzialności

Automatyzacja rekrutacji prawdopodobnie będzie się rozwijać bardzo szybko. Systemy AI pozwalają firmom przetwarzać ogromne ilości danych i znacząco przyspieszają proces selekcji. Jednocześnie rośnie świadomość ryzyka związanego z algorytmicznymi decyzjami. Dlatego regulatorzy uznali HR za jeden z najbardziej wrażliwych obszarów wykorzystania sztucznej inteligencji. Dla firm oznacza to jedno: narzędzia rekrutacyjne przestają być wyłącznie kwestią technologii i stają się także obszarem compliance oraz prawa. Organizacje, które już dziś zaczną analizować swoje systemy HR, będą znacznie lepiej przygotowane na nadchodzące wymogi regulacyjne.

Tagi: ,