Sztuczna inteligencja z założenia ma służyć jako narzędzie ułatwiające procesy, zastępujące człowieka w najbardziej żmudnych przedsięwzięciach. Jej wciąż rosnąca popularność wzbudza chęć poszukiwania coraz to nowszych zastosowań, obszarów operacyjnych, gdzie mogłaby przyspieszyć wykonywanie zadań.
Niewątpliwie jednym z tych obszarów może być proces rekrutacyjny w firmie.
W procesie rekrutacji sztuczna inteligencja może być wykorzystywana na wiele sposobów: może przeszukiwać sterty CV, oceniać testy kompetencji wykonane przez kandydatów, a nawet przeprowadzać część rozmów rekrutacyjnych. Sztuczna inteligencja daje również możliwość oceniania kandydatów na podstawie ich obecności w mediach społecznościowych – może analizować posty, zdjęcia z wakacji, udostępnienia.
Gdyby nie AI Act wprowadzony przez Unię Europejską w Polsce 12 lipca 2024 r., w zasięgu ręki byłaby też ocena bezpośrednio na podstawie gestów, mimiki, zachowania. Łączyłoby się to z tzw. social scoringiem, to znaczy klasyfikacją osób na podstawie ich zachowań społecznych i cech osobowości. W procesie social scoringu decyzje generowane są wyłącznie przez algorytmy na podstawie posiadanych przez nie szerokiego zasobu danych jak lokalizacja, aktywność online, historia kredytowa.
Nietrudna do wyobrażenia jest sytuacja, w której kandydat jest dyskwalifikowany przez system AI z uwagi np. na swój trudny charakter, który system sztucznej inteligencji określił na podstawie zdjęć umieszczanych w mediach społecznościowych, opinii głoszonych na różnych portalach.
W praktyce tej nietrudno jest się doszukać nieproporcjonalnej ingerencji w życie prywatne kandydata, łamania praw człowieka, a w szczególności prawa do prywatności gwarantowanego przez art. 8 Europejskiej Konwencji Praw Człowieka. Zbadanie osoby kandydata powinno odbyć się w odmienny, bardziej etyczny sposób.
AI Act nie zakazuje jednak wyłącznie tego. Podczas wykorzystywania AI w procesie rekrutacji pracodawcy muszą zrezygnować również ze stosowania kategoryzacji biometrycznej. Kategoryzacja biometryczna polega na rozpoznawaniu cech wrażliwych kandydata – na przykład pochodzenia rasowego, poglądów politycznych, religii czy orientacji seksualnej.
Zakaz wprowadzony przez AI Act obejmuje wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemów AI (o ile dostępne są na terenie Unii Europejskiej) na potrzeby oceny lub klasyfikacji prowadzonej przez określony czas na podstawie zachowania społecznego osób lub znanych, wywnioskowanych lub przewidywanych cech osobistych bądź osobowości, kiedy działanie to ma prowadzić do przynajmniej jednego z następujących skutków: krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane, lub krzywdzącego bądź niekorzystnego traktowania, które jest nieuzasadnione lub nieproporcjonalne do zachowania społecznego lub jego wagi.
Podczas próby wyboru idealnego kandydata na dane stanowisko należy zwrócić również szczególną uwagę, czy jego dane przypadkiem nie są przekazywane nie autoryzowanym przez firmę modelom językowym. Każda informacja przekazana np. Chatowi GPT będzie przez niego przechowywana, analizowana i posłuży jako materiał do „nauki” modelu. Może to być szczególnie niebezpieczne w momencie, gdy mamy do czynienia z danymi wrażliwymi, tajnymi lub pełnimy zawód zaufania publicznego jak adwokat, urzędnik, księgowy. Jest to bezpośrednie naruszenie prawa do prywatności.
Ochrona pracowników rozciąga się również na etap po zakończeniu rekrutacji, w trakcie pracy i oceną nastroju, nastawienia, emocji pracowników, które towarzyszą im w trakcie pracy. Wykorzystywanie sztucznej inteligencji w celu analizy emocji pracowników w miejscu pracy, ich zaangażowania i nastawienia do pracy może prowadzić do dyskryminacji, wobec czego stosowanie systemów sztucznej inteligencji analizujących te dane jest zakazane. Podobne regulacje dotyczą również oceny predyspozycji do awansu.
AI Act przewiduje sankcje za niedochowanie wyżej wskazanych standardów, aczkolwiek ich wielkość jest raczej zróżnicowana. Kary mogą wynosić nawet 35 000 000 EURO lub 7% rocznego światowego obrotu z poprzedniego roku budżetowego, jeśli naruszenia przepisów dokonało przedsiębiorstwo.
Prawodawca unijny nie zadbał jedynie o uchronienie pracowników od dyskryminacji i zagrożeń płynących z bycia nieustannie analizowanym przez wszelkiego rodzaju systemy, ale również zadbał o zwiększenie ludzkiej konkurencyjności w starciu z maszynami.
Już 2 lutego 2025 r. wszedł w życie obowiązek kompetencji w zakresie AI, tzw. AI Literacy. Zgodnie z nim podmioty dostarczające oraz stosujące sztuczną inteligencję będą musiały podjąć działania w kierunku zapewnienia pracownikom odpowiedniej wiedzy i umiejętności w zakresie AI niezbędnych do wykonywania swoich zadań. Każdy pracownik, który obchodzić się będzie w swojej pracy z systemem sztucznej inteligencji, powinien zostać odpowiednio przeszkolony do korzystania z niego, powiadomiony o zagrożeniach. Informacje można rozpowszechniać za pomocą webinarów, szkoleń, poradników oraz dokładnych instrukcji dotyczących konkretnego oprogramowania. Ma to zapobiec wykluczeniu części pracowników z wykonywania zadań, które wykonywali dotychczas z uwagi na ich nieobycie z technologią. Sztuczna inteligencja ma przede wszystkim ułatwiać, nie zaś zastępować człowieka. Nakaz będzie nadzorowany i egzekwowany przez władze państwowe od 2 sierpnia 2026 r.
Zmiany zaproponowane przez Komisję Europejską mają na celu zagwarantowanie, iż postępujący proces automatyzacji społeczeństwa będzie zarówno bezpieczny, jak i dochodowy dla wszystkich zainteresowanych stron.