ITPraca

Co robot zrobi z Twoim CV?

Rozpoczęła się rewolucja w zakresie sztucznej inteligencji (AI) , która obejmuje niemal każdy aspekt życia zawodowego i osobistego ludzi – w tym rekrutację do pracy.

Podczas gdy artyści obawiają się naruszeń praw autorskich lub po prostu bycia zastąpionymi, biznes i menedżerowie stają się coraz bardziej świadome możliwości większej wydajności w tak różnorodnych obszarach, jak zarządzanie łańcuchem dostaw, obsługa klienta, rozwój produktów i zarządzanie zasobami ludzkimi (HR).

Wkrótce wszystkie obszary biznesowe i operacje będą pod presją przyjęcia sztucznej inteligencji w takiej czy innej formie. Jednak sama natura sztucznej inteligencji – oraz dane stojące za jej procesami i wynikami – oznacza, że ​​w technologię wbudowane są ludzkie uprzedzenia.

Nasze badanie dotyczyło wykorzystania sztucznej inteligencji w rekrutacji i zatrudnianiu – w dziedzinie, która już szeroko przyjęła sztuczną inteligencję do automatyzacji przeglądu życiorysów i oceniania rozmów wideo prowadzonych przez osoby ubiegające się o pracę.

Sztuczna inteligencja w rekrutacji zapewnia większą obiektywność i efektywność procesu rekrutacji, zwiększając uczciwość i spójność w podejmowaniu decyzji. Jednak nasze badania pokazują, że sztuczna inteligencja może subtelnie – a czasami jawnie – zwiększać uprzedzenia. Zaangażowanie specjalistów HR może raczej pogorszyć niż złagodzić te skutki. Podważa to nasze przekonanie, że nadzór człowieka może powstrzymać i moderować sztuczną inteligencję.

Powiększające się ludzkie uprzedzenia

Chociaż jednym z powodów stosowania sztucznej inteligencji w rekrutacji jest to, że ma ona być bardziej obiektywna i spójna, wiele badań wykazało, że w rzeczywistości technologia ta jest z dużym prawdopodobieństwem stronnicza . Dzieje się tak, ponieważ sztuczna inteligencja uczy się na podstawie zbiorów danych używanych do jej trenowania. Jeśli dane są wadliwe , sztuczna inteligencja też będzie.

Błędy w danych mogą zostać pogłębione przez stworzone przez człowieka algorytmy wspierające sztuczną inteligencję, które często zawierają ludzkie uprzedzenia w swoich projektach .

W wywiadach z 22 specjalistami HR zidentyfikowaliśmy dwa powszechne uprzedzenia przy zatrudnianiu: uprzedzenie stereotypowe i uprzedzenie „podobny do mnie”.

Stronniczość stereotypowa ma miejsce, gdy na decyzje wpływają stereotypy dotyczące pewnych grup, takie jak preferowanie kandydatów tej samej płci, co prowadzi do nierówności płci.

Stronniczość „podobny do mnie” ma miejsce, gdy rekruterzy faworyzują kandydatów, którzy mają podobne pochodzenie lub zainteresowania.

Te błędy, które mogą znacząco wpłynąć na uczciwość procesu rekrutacji, są osadzone w historycznych danych dotyczących zatrudnienia, które są następnie wykorzystywane do szkolenia systemów sztucznej inteligencji. Prowadzi to do stronniczej sztucznej inteligencji.

Jeśli zatem dotychczasowe praktyki zatrudniania sprzyjały określonym grupom demograficznym, sztuczna inteligencja będzie to robić nadal. Łagodzenie tych błędów jest trudne, ponieważ algorytmy mogą wywnioskować  na podstawie danych ukrytych z innych skorelowanych informacji. Na przykład w krajach o różnym stażu służby wojskowej mężczyzn i kobiet sztuczna inteligencja może określić płeć na podstawie czasu trwania służby.

To utrzymywanie się uprzedzeń podkreśla potrzebę starannego planowania i monitorowania, aby zapewnić uczciwość zarówno w procesach rekrutacji opartych na ludziach, jak i na sztucznej inteligencji.

Czy ludzie mogą pomóc?

Oprócz specjalistów HR przeprowadziliśmy także wywiady z 17 programistami AI. Chcieliśmy zbadać, w jaki sposób można opracować system rekrutacji oparty na sztucznej inteligencji, który raczej złagodzi, a nie zaostrzy, stronniczość w zatrudnianiu. Na podstawie wywiadów opracowaliśmy model, w którym specjaliści HR i programiści AI wymieniają się informacjami i kwestionują uprzedzenia podczas badania zbiorów danych i opracowywania algorytmów.

Jednak nasze odkrycia pokazują, że trudność we wdrażaniu takiego modelu wynika z różnic edukacyjnych, zawodowych i demograficznych istniejących między specjalistami HR a twórcami sztucznej inteligencji. Różnice te utrudniają efektywną komunikację, współpracę, a nawet umiejętność wzajemnego zrozumienia. Podczas gdy specjaliści HR są tradycyjnie szkoleni w zakresie zarządzania ludźmi i zachowań organizacyjnych, twórcy sztucznej inteligencji mają doświadczenie w nauce i technologii danych. Te różne środowiska mogą prowadzić do nieporozumień i rozbieżności podczas wspólnej pracy. Jest to szczególnie problem w mniejszych krajach, takich jak Nowa Zelandia, gdzie zasoby są ograniczone, a sieci zawodowe są mniej zróżnicowane.

Łączenie HR i AI

Jeśli firmy i specjaliści HR chcą rozwiązać problem stronniczości w rekrutacji opartej na sztucznej inteligencji, należy wprowadzić kilka zmian.

Po pierwsze, kluczowe znaczenie ma wdrożenie ustrukturyzowanego programu szkoleniowego dla specjalistów HR, skoncentrowanego na rozwoju systemów informatycznych i sztucznej inteligencji. Szkolenie to powinno obejmować podstawy sztucznej inteligencji, identyfikację błędów w systemach AI oraz strategie łagodzenia tych błędów.

Ponadto ważne jest również wspieranie lepszej współpracy między specjalistami HR a twórcami sztucznej inteligencji. Firmy powinny dążyć do tworzenia zespołów obejmujących zarówno specjalistów HR, jak i AI. Mogą one pomóc w wypełnieniu luki komunikacyjnej i lepszym dostosowaniu wysiłków.

Co więcej, rozwój odpowiednich kulturowo zbiorów danych ma kluczowe znaczenie dla ograniczenia błędów w systemach sztucznej inteligencji. Specjaliści HR i twórcy sztucznej inteligencji muszą współpracować, aby zapewnić, że dane wykorzystywane w procesach rekrutacyjnych opartych na sztucznej inteligencji są zróżnicowane i reprezentatywne dla różnych grup demograficznych. Pomoże to w stworzeniu bardziej sprawiedliwych praktyk zatrudniania.

Wreszcie kraje potrzebują wytycznych i standardów etycznych dotyczących stosowania sztucznej inteligencji w rekrutacji, które mogą pomóc w budowaniu zaufania i zapewnieniu uczciwości. Organizacje powinny wdrożyć zasady promujące przejrzystość i odpowiedzialność w procesach decyzyjnych opartych na sztucznej inteligencji.

Podejmując te kroki, możemy stworzyć bardziej włączający i sprawiedliwy system rekrutacji, który wykorzysta mocne strony zarówno specjalistów HR, jak i programistów AI.