23.04.2026

Kto dyskryminuje bardziej: Człowiek czy algorytm?  

Dyskryminacja — nierówne traktowanie ze względu na płeć, wiek, religię, kolor skóry czy inne cechy — to problem znany od lat. W ostatnich latach zyskuje nowy wymiar: coraz częściej decyzje podejmowane są przez algorytmy lub sztuczną inteligencję. To rodzi pytania: czy algorytmy dyskryminują mniej, czy bardziej niż ludzie? I co mówi na ten temat najnowszy stan wiedzy? 

Robot vs człowiek 

Algorytmy są tworzone przez ludzi, trenowane na danych zebranych z rzeczywistości — a ta rzeczywistość często zawiera uprzedzenia. Jeśli dane są stronnicze (np. historycznie więcej mężczyzn niż kobiet na stanowiskach kierowniczych), algorytm może „uczyć się” takich wzorców i je powielać.  

Przykład: algorytm HR może odrzucać kandydatki, bo w danych treningowych firmy było więcej mężczyzn. Nawet jeśli algorytm nie używa bezpośrednio cechy „płeć”, mogą być użyte tak zwane proxy — czyli cechy powiązane (np. określone szkoły, obszary, słowa używane w CV), które de facto prowadzą do dyskryminacji. 

Decyzje ludzkie często mają element emocji, subiektywności, stereotypu. Człowiek może kierować się własnymi uprzedzeniami, uprzedzeniami kulturowymi albo stereotypami, nawet nie zdając sobie z tego sprawy. W wielu badaniach uprzedzenia ludzkie są szybciej i łatwiej zauważalne — zarówno przez badaczy, jak i przez osoby pokrzywdzone.  

Badania pokazują, że ludzie są bardziej oburzeni (moralnie) dyskryminacją, gdy sprawcą jest człowiek niż wtedy, gdy sprawcą jest algorytm! 

Gdy osoba wierzy, że algorytm ma mniejszą „wolną wolę” lub nie jest zdolny do intencji (np. intencji dyskryminacyjnej), to jej moralne oczekiwania (np. kara, odpowiedzialność) są mniejsze. 

Raport „State of AI Bias in Talent Acquisition 2025” przedstawia przegląd uprzedzeń sztucznej inteligencji, zgodności i odpowiedzialnych praktyk AI w obszarze pozyskiwania talentów, oparty na danych.  

  • Mimo że 75% zespołów ds. pozyskiwania talentów już korzysta z systemów AI, obawy dotyczące uprzedzeń są głównym problemem dla 75% liderów HR oceniających adopcję AI, ustępując jedynie prywatności danych.  
  • Chociaż uprzedzenia w AI są możliwe do zademonstrowania, a 15% narzędzi nie spełniło podstawowych testów uczciwości, to rzeczywistość jest bardziej skomplikowana: 85% audytowanych systemów AI spełniło akceptowane progi uczciwości.  
  • Dane sugerują, że AI jest w stanie zapewnić nawet do 45% sprawiedliwsze wyniki dla kobiet i mniejszości rasowych niż decyzje podejmowane przez ludzi. Na przykład, kandydaci z mniejszości rasowych doświadczają do 45% sprawiedliwszego traktowania z AI, a kandydatki płci żeńskiej do 39% w porównaniu do decyzji ludzkich, które wykazują wyraźne dysproporcje. Warto zauważyć, że w ciągu ostatnich pięciu lat ponad 99.9% roszczeń o dyskryminację w zatrudnieniu było związanych z uprzedzeniami ludzkimi, a nie AI. 
  • Metryki stronniczości różnią się znacznie między dostawcami, nawet o 40%, co podkreśla znaczenie wyboru i monitorowania rozwiązań AI. W odpowiedzi na te wyzwania, nowe regulacje AI, takie jak lokalna ustawa NYC 144 i ustawa o AI UE, mają znaczący wpływ na branżę HR, choć zgodność z nimi wciąż pozostaje kwestią problematyczną.  
  • Testowanie uprzedzeń staje się standardem, z 75% dostawców przeprowadzających testy wewnętrzne, jednak tylko 5% audytów obejmuje inne grupy demograficzne, takie jak wiek czy niepełnosprawność, poza płcią i rasą/etnicznością.  
  • Wzrastające stawki za niewłaściwe użycie AI, wynikające z rosnących regulacji i pozwów, takich jak Mobley vs. Workday, sprawiają, że wybór dostawcy AI staje się kluczową decyzją kształtującą ryzyko prawne i reputacyjne organizacji, jednocześnie oferując potencjał do poprawy równości w miejscu pracy. 

Konsekwencje dla managerów, pracodawców, liderów 

Człowiek i algorytm: obaj mogą dyskryminować, ale z różnych powodów i w różnych sposób. 

  • Człowiek działa często z uprzedzeniami, emocjami, stereotypami. 
  • Algorytm nie ma intencji, ale może powielać ludzkie błędy zapisane w danych i trudniej jest mu „wyczuwać” kontekst. 
     

Jeśli zarządzasz zespołem albo firmą, co możesz zrobić, by minimalizować dyskryminację — zarówno tą „ludzką”, jak i tą „algorytmiczną”? 

  1. Audyt danych i błędów algorytmów 

Zanim wdrożysz system wspomagania decyzji (np. do rekrutacji), sprawdź: skąd pochodzą dane, czy zawierają uprzedzenia? Testuj algorytmami scenariusze, które mogą pokazywać dyskryminację — sprawdź, czy algorytm różnicuje kandydatów/klientów/nabywców w zależności od cech niemających znaczenia. 
 

  1. Szkolenia dla ludz
     

Ucz pracowników i liderów, jak ich własne uprzedzenia mogą wpływać na decyzje. „Dlaczego zrobiłem/a tak, a nie inaczej?” Wspieraj kulturę, w której można zgłaszać wątpliwości dotyczące uprzedzeń. 
 

  1. Połączenie człowieka i algorytmu  
     

Algorytm może sugerować, ale decyduje człowiek — zwłaszcza w sytuacjach złożonych lub krytycznych. Człowiek może przeglądać rekomendacje, sprawdzać wyjątki, korygować działania algorytmu. 
 

  1. Powszechne monitorowanie wyników i feedback 
     

Zbieraj dane o wynikach decyzji: kto jest akceptowany / odrzucany, jakie są efekty, czy są wzorce nierównego traktowania. Wprowadź mechanizmy zgłaszania problemów — anonimowe raporty, audyt wewnętrzny. 
 

  1. Regulacje i transparentność 
     

Jeśli twój algorytm działa w obszarach, które mają duży wpływ na ludzi (np. rekrutacja, kredyty, opieka społeczna), zadbaj o jasne zasady, kto odpowiada za błędy. Upewnij się, że użytkownicy lub klienci wiedzą, kiedy decyzja była wspierana algorytmem, i mają możliwość odwołania się. 

Nie wystarczy mówić „algorytmy są złe” albo „ludzie się mylą” — trzeba działać. Proponuję: 

  • Przejrzyj, jakie decyzje w Twojej firmie są już wspierane algorytmami albo mogą być — rozejrzyj się, gdzie mogą pojawić się uprzedzenia. 
  • Zrób prosty pilotaż: porównaj wyniki decyzji ludzkich i algorytmów — czy są różnice, niesprawiedliwe wzorce? 
  • Włącz swoich pracowników w dyskusję — bo może dostrzegają niedoskonałości. 
     

Jeśli podejdziecie do tego świadomie, z odpowiedzialnością i etyką, możecie osiągnąć sytuację, w której algorytm pomaga eliminować dyskryminację, zamiast ją powielać. 

Zobacz wydarzenia z podobnej tematyki

Podoba Ci się ten artykuł? Podziel się nim ze znajomymi.