Home Biznes Etyczne wyzwania sztucznej inteligencji.

Etyczne wyzwania sztucznej inteligencji.

0
0
73

 Dyskusja na temat etycznych aspektów wykorzystania sztucznej inteligencji w rekrutacji i biznesie z Krzysztofem Salink, Senior IT Recruitment Consultant w Yard Corporate.

Jakie korzyści przynosi wykorzystanie sztucznej inteligencji w procesach rekrutacyjnych?

Dużo zależy od potrzeb firmy, od skali firmy i od tego czym się kieruje. Są jednak wspólne przestrzenie będące uniwersalne jeśli chodzi o zastosowanie sztucznej inteligencji. Przede wszystkim dzięki AI można szybko i automatycznie przetwarzać bardzo dużą ilość danych, co pozwala na dokładniejszą ocenę kandydatów i przyspieszenie całego procesu, ponieważ człowiek nie byłby w stanie przeanalizować tak dużej ilości informacji w czasie, w jakim jest to w stanie zrobić maszyna. Algorytmy wykorzystujące sztuczną inteligencję pozwalają dokładniej przeanalizować kompetencje, zarówno twarde, jak i miękkie, dzięki czemu łatwiej jest zweryfikować, którzy kandydaci spełniają wymagania dotyczące stanowiska i posiadają odpowiednie umiejętności. 

Sztuczna inteligencja pozwala też na zminimalizowanie uprzedzeń i nierówności co jest szczególnie ważne w branży IT, ponieważ zarówno kobiety, jak i osoby z mniejszości etnicznych są w niej często dyskryminowane, jednak tutaj pojawia się duże wyzwanie, algorytmy muszą być odpowiednio zaprojektowane, a dane odpowiednio dobrane. 

Jednym z etycznych wyzwań sztucznej inteligencji w rekrutacji jest zapewnienie uczciwego i sprawiedliwego oceniania kandydatów. Jak radzicie sobie z minimalizowaniem uprzedzeń i nierówności, które mogą pochodzić z algorytmów AI?

Kwestia równości jest dla nas bardzo ważna, gdyż wpisuje się w wartości naszej firmy. Jest to duże wyzwanie, natomiast jesteśmy przeszkoleni przez specjalistów z zakresu sztucznej inteligencji oraz pozostajemy z nimi w ciągłym kontakcie w razie potrzeby.

Przede wszystkim musimy dbać o to, aby algorytmy były zaprojektowane w sposób świadomy i zrozumiały. Warto zwrócić dużą uwagę na analizy danych, które będą używane do trenowania algorytmu i zapewnić, że są one reprezentatywne i nie wprowadzają uprzedzeń. Algorytm jest tak dobry jak dane, które do niego wprowadzimy więc jeśli wprowadzone dane, zawierają jakieś uprzedzenia, to niestety mogą one zostać przeniesione na algorytm. Musimy też identyfikować takie elementy danych, które mogą wprowadzać nieodłączne uprzedzenia do modelu. Podam prosty przykład – algorytm stwierdzi, że szachiści są dobrymi programistami, ale idąc za tym, może też stwierdzić, że osoby niegrające w szachy nie mogą mieć równie cennego talentu programistycznego, co staje się pewnym uprzedzeniem i błędem. Jest to przykład, który obrazuje, że dane w modelu trzeba analizować i rozważać pod wieloma kątami i nie zero-jedynkowo. 

Aby radzić sobie z minimalizowaniem uprzedzeń i nierówności monitorujemy, oceniamy algorytmy na bieżąco i analizujemy wyniki, jakie przedstawiają. Jeśli algorytm z niewiadomych przyczyn wyrzuca kandydatów, którzy spełniają wszystkie warunki, należy sprawdzić, czy nie bazuje na danych historycznych, czy demograficznych, które też mogą wprowadzać błędy. Dla przykładu, w przypadku danych demograficznych jest oczywiste, że reprezentacja jakiejś mniejszości będzie na tyle niska, że algorytm może uznać to za cechę niepożądaną. 

Ze względu na specyfikę naszej pracy w Yard Corporate, jaką jest różnorodność naszych klientów, ciężko jest nam uwzględniać w tych wszystkich algorytmach kwestie takie jak wartości, priorytety firm, do których rekrutujemy. Są to bardzo różni klienci z różnymi podejściami w tej kwestii, dlatego tutaj pojawia się czynnik ludzki – to my oceniamy czy ktoś pasuje do firmy, ponieważ znamy klienta, wiemy, kogo szuka, co jest dla nich ważne, czy jaką mają kulturę organizacyjną. 

Jakie są konsekwencje nieświadomego wykorzystania sztucznej inteligencji w rekrutacji?

Nieświadome wykorzystane sztucznej inteligencji może prowadzić do dyskryminacji na podstawie płci, rasy i wieku, co może wynikać z uprzedzeń osób, które tworzą taki model lub z danych, które są w nich zawarte, przez co mogą wprowadzać uprzedzenia do modelu. 

Model AI powinien być sprawiedliwy i inkluzywny dla wszystkich, niezależnie od ich pochodzenia. Świadomie lub nie, nosimy w sobie wszelkiego rodzaju wrodzone uprzedzenia poznawcze, często będąc ich nieświadomi. Nawet jeśli sztuczna inteligencji nie jest zaprogramowana do niesprawiedliwego traktowania kogokolwiek, ale uczy się na podstawie stronniczych danych nadal może ona wykazywać tendencyjne zachowania. Dobrym przykładem jest przypadek firmy Amazon, która kilka lat temu zaprojektowała swój algorytm, który miał im pomóc w rekrutacjach. Został on przeszkolony do obserwowania wzorców w życiorysach przesłanych do firmy przez kandydatów w ciągu ostatnich dziesięciu lat, jednak ze względu na zdominowaną przez mężczyzn branżę technologiczną, większość tych życiorysów została złożona przez mężczyzn. W efekcie system sztucznej inteligencji uznał, że kandydaci płci męskiej są świadomie preferowani. W rezultacie karał życiorysy kobiet niższą oceną. Pomimo prób wprowadzenia zmian, nie było zaskoczeniem, że Amazon ostatecznie zrezygnował z tej inicjatywy w 2017 roku.

Czy sztuczna inteligencja jest używana tylko do pierwszego etapu selekcji, czy ma również wpływ na późniejsze etapy procesu rekrutacyjnego? Czy może być odpowiedzialna za podejmowanie ostatecznych decyzji dotyczących zatrudnienia?

To zależy. 

Bezpieczniej będzie powiedzieć, że przy obecnym rozwoju AI, ostateczna decyzja dotycząca zatrudnienia powinna być podejmowana przez ludzi, a nie przez algorytmy. Sztuczna inteligencja może być użyta jako narzędzie wspomagające, ale to ludzie powinni podejmować decyzje na podstawie analizy danych i własnej wiedzy i doświadczenia.

Ryzyko tutaj polega nie tylko na tym, że AI może podejmować błędne decyzje. To także niewiedza, w jaki sposób do nich doszła. Wyobraźmy sobie, że aplikujemy na stanowisko, na które spełniamy wszystkie wymagania i jesteśmy pewni, że otrzymamy zaproszenie na rozmowę rekrutacyjną. Niestety, nasze CV zostaje odrzucone i nie wiemy dlaczego. Kontaktujemy się z firmą, żeby poznać powód odrzucenia naszej kandydatury, a pracownik, który zagląda w nasze CV, nie wie, co ma nam powiedzieć, bo nie wie, dlaczego algorytm nas odrzucił. Totalna wtopa wizerunkowa i fatalny candidate experience. 

Jest to niebezpieczeństwo związane z systemem AI działającym w czarnej skrzynce. Jeśli nie możesz zobaczyć lub łatwo zrozumieć wewnętrznego działania systemu między danymi wejściowymi i wyjściowymi, jak można zakwestionować lub obalić podejmowane przez niego decyzje?

Koncepcja wyjaśnialności często pojawia się w etyce sztucznej inteligencji. Sztuczna inteligencja musi być przejrzysta, aby ludzie mogli zaufać jej decyzjom, zakwestionować nieoczekiwane wyniki, gdy się pojawią, i odpowiednio ulepszyć model.

Złożone wewnętrzne działanie modeli sztucznej inteligencji nie zawsze jest jednak łatwe do wyjaśnienia dla laika, któremu ciężko zrozumieć, jak działają sieci neuronowe, które wykorzystują skomplikowane ścieżki matematyczne. Firmy mogą również niechętnie ujawniać procesy sztucznej inteligencji, jeśli oznacza to rezygnację z tajemnic handlowych, które zapewniają przewagę konkurencyjną. Przykładem spoza IT są np. banki, które mają swoje sposoby na błyskawiczne wyliczenie zdolności kredytowej przez maszynę.

Czy algorytmy oparte na sztucznej inteligencji mogą lepiej ocenić kandydatów niż rekruterzy?

Sztuczna inteligencja odnosi się do symulacji ludzkiej inteligencji przez maszyny, jednak nadal jest to symulacja bazująca na dostarczanych jej danych. Na chwilę obecną nie może równać się inteligencji człowieka. W procesach rekrutacyjnych w dalszym ciągu bardzo ważne jest uwzględnienie kontekstu, intuicji i wartości zespołu rekrutującego w podejmowaniu decyzji. Współczesne algorytmy oparte na sztucznej inteligencji niestety tych cech jeszcze nie mają, choć trwają już prace nad takimi technologiami. 

Załóżmy, że poszukuję dla mojego klienta kandydata, który posiada rzadko spotykane, dość unikalne połączenie umiejętności technicznych. Jedną z tych technologii jest React, czyli technologia frontendowa, która jest biblioteką Java Scriptu. AI dotrze kandydatów znających Reacta, natomiast ja wiem, że programista może przerzucić się z czystego Java Script na React i nauczyć się go w dwa tygodnie. Dlatego jeśli to jest tak trudne do znalezienia połączenie umiejętności, to ja jako człowiek wiem, że mogę wziąć pod uwagę osoby, które znają czysty Java Script. Oczywiście jest to bardzo uproszczony przykład, bo w łatwy sposób do modelu można wprowadzić też programistów Java Script, a React wcale nie jest łatwą technologią, natomiast dobrze obrazuje, czym jest kontekst, którego sztuczna inteligencja może nie zrozumieć. Warto jednak dodać, że już teraz powstają metody uwzględniające 1 mln tokenów kontekstu, z czym ludzki umysł nie może się równać, możliwe zatem, że wkrótce będziemy świadkami kolejnych rewolucji.

Dziś proporcje wykorzystania sztucznej inteligencji w procesach rekrutacyjnych przedstawia się w proporcji 20/80 na korzyść człowieka. Myślę, że może to się zmieniać na korzyść AI w miarę rozwoju sztucznej inteligencji i zdolności do wykluczania pomyłek poznawczych. Tempo rozwoju jest ogromne, obecnie dziennie publikowane jest 100 badań na temat nauczania maszynowego. Dla porównania w 2013 roku mieliśmy 1200 badań w roku. 

Czy AI w procesie rekrutacji weryfikuje kompetencje miękkie i twarde, czy tylko te drugie?

Możliwe jest weryfikowanie kompetencji zarówno twardych jak i miękkich. Algorytmy AI mogą analizować informacje z różnych źródeł: CV, profile w mediach społecznościowych, a nawet nagrania wideo z rozmów kwalifikacyjnych.

Na rynku są rozwiązania, które na podstawie takich nagrań są w stanie określić profile osobowościowe kandydatów. Na podstawie ruchu gałek ocznych mogą ocenić czy dana osoba przy zadanym pytaniu się stresowała, czy dobrze znała odpowiedź, czy była jej niepewna, albo czy po prostu, czy strzelała. 

Z podobnego rozwiązania korzysta firma HireVue. Dokumentują oni nagrania wideo kandydata przez kamerę oraz mikrofon, następnie dźwięk jest konwertowany na tekst, a algorytm analizuje go pod kątem kilku parametrów, na przykład sprawdza ile razy kandydat użył zaimków “ja”, zamiast “my” w odpowiedziach dotyczących pracy zespołowej. HireVue bierze pod uwagę około milion elementów dotyczących danych kandydata w każdej minucie filmu, dzięki czemu może powiedzieć rekruterom o prawdziwości i pewności odpowiedzi kandydatów, następnie daje wybór czy filtrujemy na podstawie tego, co AI stwierdziła bez dodatkowej weryfikacji, czy zapraszamy Kandydata na kolejne rozmowy kwalifikacyjne z rekruterem. 

Sztuczna inteligencja w rekrutacji może opierać się na analizie danych osobowych kandydatów. Jak dbacie o zgodność z przepisami dotyczącymi ochrony danych osobowych?

W rekrutacji są to kluczowe kwestie, dlatego staramy się korzystać tylko z danych, które są nam niezbędne do przeprowadzenia procesu rekrutacji. Upewniamy się, że dane są przechowywane i przetwarzane w sposób bezpieczny i zgodny z przepisami. Monitorujemy i aktualizujemy algorytmy, nie tylko pod kątem zasadności użytych w nich danych i tego jak wpływają na algorytm, ale również ich zgodności z regulacjami dotyczącymi ochrony danych osobowych, przede wszystkim RODO.  

W razie potrzeby konsultujemy się z ekspertami ds. ochrony danych osobowych oraz specjalistami od AI, aby upewnić się, że nasze praktyki są zgodne z najlepszymi praktykami branżowymi i regulacjami dotyczącymi ochrony danych osobowych, a algorytmy nie naruszają ich w nieświadomy dla nas sposób.

W jaki sposób wykorzystanie sztucznej inteligencji wpłynęło na jakość procesu rekrutacyjnego i jakość wyboru kandydatów? 

Przede wszystkim sztuczna inteligencja, dzięki możliwości przetwarzania ogromnych ilości danych w krótkim czasie, bardzo przyspiesza proces sourcingu, a czas w pracy agencyjnej jest na wagę złota. Dzięki temu dostarczamy Kandydatów dopasowanych do preferencji klientów średnio w 3 dni robocze, a czasem nawet dzień otrzymania zlecenia, czym często wręcz ich zadziwiamy. Dodatkowo AI pozwala nam lepiej profilować kandydatów i oceniać skillset pod kątem danego projektu, dzięki czemu u naszych partnerów posiadamy najwyższe współczynniki zatrudnionych do wysłanych kandydatów, spośród konkurencji. 

Dzieje się tak również dlatego, że nie polegamy w 100% na AI, jednak używamy go głównie do najbardziej żmudnych, powtarzalnych, „robotycznych” czynności, dzięki czemu zostaje nam więcej czasu i przestrzeni na zajęcia wymagające inwencji, intuicji, kreatywności i najzwyczajniejszego w swiecie ludzkiego podejścia, bo zawsze staramy się wspierać naszych Kandydatów w procesach, aby zapewnić im jak najlepszy candidate experience.

Czy firmy powinny być zobowiązane do ujawniania, że sztuczna inteligencja bierze udział w procesie rekrutacyjnym? Jakie korzyści i zagrożenia z tym związane widzisz?

Według mnie tak.  Ujawnienie tego faktu zapewnia uczciwość i przejrzystość wobec kandydatów, którzy powinni mieć prawo wiedzieć, jakie narzędzia są używane do oceny ich kwalifikacji. Obecnie wymagana jest zgoda Kandydata na rejestrowanie video z rozmowy rekrutacyjnej, zakładam, że to kwestia czasu, kiedy pojawią się podobne regulacje i obowiązki informacyjne w kwestii AI. Ponadto, ujawnienie wykorzystania sztucznej inteligencji może być korzystne dla wizerunku firmy, ponieważ pokazuje, że firma jest innowacyjna i wykorzystuje najnowsze technologie w procesie rekrutacji, co w branży IT jest jak najbardziej pożądane.

Niestety, istnieją również zagrożenia związane z ujawnieniem wykorzystania sztucznej inteligencji w procesie rekrutacji. Kandydaci bardziej świadomi mogą bowiem obawiać się, że algorytmy są nierzetelne lub nieuczciwe w ocenie ich kwalifikacji. Dlatego tak ważne jest, aby firmy zapewniły odpowiednie szkolenia dla swoich pracowników i dokładnie wyjaśniały działanie algorytmów wykorzystywanych w procesie rekrutacji.

Czy sztuczna inteligencja może zastąpić ludzkie wartości i intuicję w podejmowaniu decyzji rekrutacyjnych? Jakie są potencjalne zalety i zagrożenia?

Sztuczna inteligencja może pomóc w dokładniejszej i bardziej obiektywnej ocenie kwalifikacji kandydatów, ale na stan dzisiejszy, nie zastąpi w pełni ludzkich wartości i intuicji w podejmowaniu decyzji rekrutacyjnych. Na tym polu przewagę nadal ma człowiek z cechami takimi jak empatia czy zdolność do myślenia krytycznego i podejmowania decyzji na podstawie kontekstu, które często są kluczowe dla zrozumienia subtelnych aspektów, takich jak styl komunikacji, który może różnić się w zależności od kultury czy pochodzenia. 

Potencjalne zalety wykorzystania sztucznej inteligencji w rekrutacji to bardziej efektywny i obiektywny proces rekrutacji, a także możliwość zminimalizowania uprzedzeń i nierówności. Jednak dokładnie te same szanse, mogą obrócić się w zagrożenia, poprzez wprowadzenie błędów i uprzedzeń związanych z danymi, które są używane do trenowania algorytmów AI, a także nieudane próby zastąpienia cech ludzkich rekruterów przez algorytmy. Dlatego ważne jest, aby wykorzystywać sztuczną inteligencję jako narzędzie wspomagające, a nie jako zastępstwo dla ludzkiej intuicji i doświadczenia w procesie rekrutacji.

Dodaj komentarz

Przeczytaj również

Cisco Webex prezentuje nowe rozwiązania w komunikacji z udziałem AI

Firma Cisco została założona prawie 40 lat temu w jednym celu: wykorzystania technologii d…