Strona głównaIT w biznesieDyskryminujące maszyny - czego sztuczna inteligencja uczy się od człowieka

Dyskryminujące maszyny – czego sztuczna inteligencja uczy się od człowieka

O postępach w dziedzinie machine learning i sztucznej inteligencji informują przeróżne źródła. Warto bowiem chwalić się przełomami i dynamiką rozwoju. Nie wszędzie jednak można przeczytać o tych gorszych stronach technologii AI. A okazuje się, że te gorszy strony są i to na całkiem poważną skalę.

Jakie szkody może wyrządzić machine learning oparte o sztuczną inteligencję, gdy oddajemy systemom całkowitą decyzyjność?

CV bez odzewu – wina kompetencji, czy może automatycznej weryfikacji?

Cóż, coraz częściej można zaobserwować trend wydłużających się procesów rekrutacyjnych. Rekruterzy narzekają na brak kandydatów, kandydaci narzekają na brak odpowiedzi od rekruterów lub automatyczne odpowiedzi o odrzuceniu CV na wstępnym etapie weryfikacji. Nierzadko może się okazać, że winę za tę sytuację ponosi nic innego, jak algorytm. Korzystanie z automatycznych asystentów w procesie rekrutacyjnym nie jest nowością. Niegdyś, dziesiątki lub setki napływających CV były dla rekruterów trudne do przejrzenia i dokładnej weryfikacji. Ponieważ poza CV często odbywają się także spotkania rekrutacyjne, a nierzadko składają się nawet z kilku procesów, sam projekt zatrudnienia jednej osoby wydłużał się. aby to usprawnić i upłynnić, wdrożono automatycznych asystentów, którzy mają za zadanie we wstępnej weryfikacji odrzucać aplikacje zupełnie odbiegające od określonych przez rekrutera kryteriów, a dalej przesyłać jedynie CV osób, które mają realną szansę na zatrudnienie. Okazuje się jednak, że automatycznie asystenci nieco zbyt mocno „wczuli” się w swoją rolę i zbyt dosłownie „traktują” oczekiwania wobec idealnego kandydata.

Zaburzone procesy rekrutacyjne to jednak nie jedyny „wybryk” algorytmów sztucznej inteligencji i systemów machine learning. W czym jeszcze potrafią zaszkodzić inteligentne systemy?

Dyskryminujące aplikacje na zamówienie – dyskwalifikacja za pochodzenie, płeć czy niepełnosprawność

Stany Zjednoczone korzystają z systemów opartych na sztucznej inteligencji na co dzień i w wielu obszarach. Aplikacje wykorzystywane są między innymi w sektorze publicznym i socjalnym, w celu zautomatyzowania procesu obsługi obywateli. Okazało się jednak, że firma programistyczna, która stworzyła aplikację Medicaid, wdrożoną w stanie Idaho, nie przewidziała, że ich produkt zacznie sam podejmować decyzje. Tymczasem Medicaid obniżył zasiłki aż 4000 osób, wyłącznie na podstawie takich kryteriów, jak kolor skóry, pochodzenie rasowe czy stopień niepełnosprawności.

Medicaid to jednak nie jedyny wybryk inteligentnych systemów. Przekonał się o tym rynkowy gigant Microsoft, gdy to inteligentny automat rozpętał burzę na Twitterze, zamieszczając posty i komentarze obrażające feministki.

Również Amazon przekonał się, że oddawanie decyzyjności systemom nie zawsze jest opłacalne. W tym przypadku maszyna zdecydowała o tym, by nie wdrażać nowej usługi PRIME w obszarach zamieszkiwanych przez mniejszości rasowe.

Na szczęście, mimo sztucznej inteligencji wymykającej się niekiedy spod kontroli, nie ma powodu do paniki. Software house pracujące na inteligentnych systemach i wdrażających te technologie do aplikacji zamawianych przez swoich klientów, uczą się również na błędach swoich konkurentów. Powyższe i im podobne sytuacje są zatem dobrą lekcją na doskonalenie algorytmów i zapobieganie tego typu sytuacjom w przyszłości.

________________________________________________________________________
ARTYKUŁ SPONSOROWANY | Drogi czytelniku powyższy artykuł może być materiałem reklamowym (artykułem sponsorowanym), który został napisany lub zlecony przez reklamodawcę. 

Więcej artykułów

Popularne