W gospodarce coraz większą rolę odgrywa Sztuczna Inteligencja, która automatyzuje proces decyzyjny. Technologie oparte na danych nie są neutralne. Decyzje o zbieraniu, analizowaniu i przetwarzaniu konkretnych kategorii informacji są dyktowane czynnikami społecznymi, ekonomicznymi i politycznymi.Algorytmy decydują o istotnych elementach stosunku pracy.

Z raportu "AI at Work" wynika, że 64 procent ankietowanych miałoby większe zaufanie do maszyny niż do swojego przełożonego, a połowa zamiast swojego menedżera poprosiłaby o radę robota.[1] Badanie przeprowadzone przez Oracle i firmę badawczą Future Workplace pokazało, że sztuczna inteligencja (AI) staje się w przedsiębiorstwach coraz powszechniejsza a pracownikom trudno jest dotrzymać kroku zmianom technologicznym w środowisku pracy.

Przejrzystość algorytmów staje się coraz poważniejszym problemem. Na świecie funkcjonuje ponad 80 kodeksów etycznych funkcjonujących jako wytyczne dla tworzenia sztucznej inteligencji. Powstają coraz liczniejsze inicjatywy mające propagować tworzenie „uczciwych” algorytmów. Na stronie https://algorules.org/en/home/ znajdziemy dziewięć reguł dla algorytmów. Algo.Rules to katalog formalnych kryteriów umożliwiających społecznie korzystne projektowanie i nadzorowanie systemów algorytmicznych. Stanowią one podstawę do rozważań etycznych, a także wdrażania i egzekwowania ram prawnych. Kryteria te powinny być zintegrowane od samego początku przy opracowywaniu dowolnego systemu, a zatem powinny zostać wdrożone zgodnie z projektem.

W grudniu 2018 r. Komisja Europejska przygotowała„Projekt wytycznych w zakresie etyki dotyczących wiarygodnej sztucznej inteligencji”.[2] Dokument roboczy stanowi projekt wytycznych w zakresie etyki dotyczących sztucznej inteligencji i został opracowany przez działającą przy Komisji Europejskiej grupę ekspertów wysokiego szczebla ds. sztucznej inteligencji. Eksperci wskazali, iż dokonując prognozy możliwych skutków SI dla ludzi i dobra wspólnego, należy opierać się na prawach podstawowych, zasadach i wartościach etycznych. Należy zwracać szczególną uwagę na sytuacje dotyczące słabszych grup, takich jak dzieci, osoby z niepełnosprawnościami lub mniejszości, lub na sytuacje, w których istnieje asymetria władzy lub dostępu do informacji, np. między pracodawcami i pracownikami lub przedsiębiorstwami i konsumentami. Zdaniem ekspertów należy zapewnić udział i włączenie zainteresowanych stron w projektowanie i rozwijanie systemu SI. Należy dążyć do ułatwienia możliwości kontroli systemów SI, zwłaszcza w kontekstach lub sytuacjach o szczególnym znaczeniu. W miarę możliwości należy zaprojektować system w sposób umożliwiający śledzenie ścieżki wiodącej do poszczególnych decyzji od wprowadzonych uprzednio elementów, danych, wstępnie „przyuczonych” modeli itp. Ponadto należy określić metody objaśniania systemu SI.

Media podają coraz częściej informacje o możliwym dyskryminowaniu pewnych grup przez algorytmy.Do nierównego traktowania w związku z przetwarzaniem danych może dochodzić w różnych sytuacjach. Mechanizmy te trudno jest wykryć. „To czarna skrzynka (black box) – nietransparentny mechanizm, który wykonuje niezrozumiałe operacje na danych. Brak przejrzystości oznacza, że osoby dotknięte taką decyzją (dotyczącą tego, że np. nie dostaną kredytu, nie zostaną przyjęte na uczelnię, nie dostaną pracy) mają znikomą szansę dowiedzenia się, co się wydarzyło, i zakwestionowania wyniku.” Przeprowadzone eksperymenty wskazały na możliwości dyskryminacji kobiet jako kierowców przez Ubera. W 2018 r. Amazon zrezygnował z wykorzystywania algorytmów sztucznej inteligencji do rekrutacji pracowników. Okazało się, że narzędzie, nad którym firma pracowała od 2014 roku, dyskryminowało ubiegające się o pracę kobiety.[3] Również tzw. gig-economy, gdzie osoba za pomocą wybranych platform internetowych decyduje się na wykonanie wybranego zlecenia, wymyka sięprzepisom. Istniejący deficyt ochrony prawnej zaczyna być dostrzegany. Niemcy 29 października 2019 r. ogłosili swoje pomysły na ochronę przed niebezpieczeństwami cyfrowego świata.W niemieckim ministerstwie pracy i spraw socjalnych została utworzona specjalna jednostka, która zbiera doświadczenia i propozycje zmian dla pracowników sektora platform internetowych, takich jak Uber Eats, dla których elastyczne formy pracy oznaczają często brak bezpieczeństwa socjalnego. Sam mechanizm dyskryminacji związanej z przetwarzaniem danych został dobrze opisany przez naukowców z London School of Economics, w raporcie: Between Anti-discrimination and Data (Między przeciwdziałaniem dyskryminacji a danymi).

Od paru miesięcy w wybranych oddziałach PKO BP testowane jest rozwiązanie służące do rozpoznawania uśmiechów doradców i klientów. Wątpliwości co do systemu ma Rzecznik Praw Obywatelskich Adam Bodnar - według niego technologia "wkracza w prywatność i godność" pracowników banku.RPO skierował do Głównego Inspektora Pracy prośbę o zbadanie sprawy nowej technologii w PKO BP. Rzecznik wskazał, że Kodeks pracy (art. 222 KP) nie dopuszcza wykorzystywania przez pracodawcę monitoringu do oceny pracowników.PKO BP w swoich wyjaśnieniach podał, iż program ma charakter dobrowolny i nie pozostaje w sprzeczności z obowiązującym porządkiem prawnym. I właśnie w tym miejscu pojawia się problem, gdyż zarówno RPO, PiP jak i Związki Zawodowe muszą wierzyć Prezesowi PKO BP na słowo, gdyż nie posiadają wystarczających uprawnień i kompetencji do dokonania stosownej weryfikacji.

Na potrzeby zmian regulacyjnych wskazał ostatnio Mark Zuckerberg, założyciel Facebooka, który stwierdził, że sami nie są w stanie niczego zmienić, ale dodał, że zawsze można im pewne zmiany odgórnie nakazać.[4]

W stosunkach pracy niezbędnym staje się wprowadzenie mechanizmów antydyskryminacyjnych i kontrolnych dla posługiwania się przez pracodawców algorytmami. Powinna istnieć realna możliwość weryfikacji algorytmów. Państwowa Inspekcja Pracy musi posiadać instrumenty kontroli nad zautomatyzowanymi procesami decyzyjnymi w stosunkach pracowniczych. Ciekawym pomysłem wydaje się propozycja Przewodniczącego OPZZ Andrzeja Radzikowskiego by kod do algorytmu stanowił element składowy regulaminu pracy czy odpowiednio układów zbiorowych. Jeśli technologia może zostać nadużyta, to nadużyta zostanie. Tylko to ostanie zdanie będące truizmem wskazuje, iż dziś już nikt nie ma wątpliwości, że Państwo jako regulator musi zapewnić pracownikom bezpieczeństwo na cyfrowym rynku pracy.


dr Liwiusz Laska 

Ekspert OPZZ  

[4] https://panoptykon.org/szymielewicz-plus-minus