Algorytmy coraz bardziej kształtują nasze życie, ale uwaga: bez etycznych zabezpieczeń sztuczna inteligencja może stać się potężnym narzędziem niesprawiedliwości. Zanurzmy się w kluczowym wyzwaniu dla naszej cyfrowej przyszłości.
Twoja kolejna prośba o pożyczkę, aplikacja o pracę, a nawet diagnoza medyczna... A co, jeśli sztuczna inteligencja (SI) będzie za to odpowiedzialna? Praktyczne, ale te systemy, choćby były najbardziej zaawansowane, mogą przekształcić się w maszyny dyskryminujące. Jak więc zapewnić, że SI nie stanie się nowym obliczem nierówności, a automatyzacja nie będzie synonimem dyskryminacji?
28/05/2025 23:05 JérômeZastanawiasz się, jak maszyna może być uprzedzona? Cóż, SI przypomina nieco wybitnie uzdolnione dziecko: uczy się na podstawie tego, co jej pokazujemy. Jeśli historyczne dane, na których jest szkolona, odzwierciedlają przeszłe dyskryminacje – na przykład, gdy pewna grupa była historycznie gorzej traktowana przy udzielaniu kredytów – SI może nauczyć się i utrwalać te same schematy. To słynna zasada „śmieci na wejściu, śmieci na wyjściu”.
Ale to nie wszystko! Uprzedzenia mogą również wkradać się poprzez sam projekt systemu. Decyzje dotyczące tego, co mierzyć, jakie wyniki preferować lub sposób oznaczania danych (często przez ludzi, z ich własnymi subiektywnościami) mogą wszystko wypaczyć. Mówimy wtedy o uprzedzeniach próbkowania, gdy zestaw danych nie reprezentuje wszystkich grup, lub o uprzedzeniach w oznaczaniu, wynikających z subiektywnych ocen ludzkich.
Asystent Google: koniec pewnej ery, Gemini i sztuczna inteligencja przejmują pałeczkę
Jednym z najbardziej podstępnych aspektów jest uprzedzenie pośrednie. Wyobraź sobie, że zabraniamy SI używania wrażliwego kryterium, takiego jak pochodzenie etniczne, do podejmowania decyzji. Szlachetna intencja, prawda? Tyle że SI, sprytna jak jest, może zidentyfikować inne, pozornie neutralne informacje, które w rzeczywistości są silnie skorelowane z tym kryterium. Na przykład kod pocztowy lub poziom wykształcenia mogą pośrednio stać się substytutami (proxy) pochodzenia lub statusu społeczno-ekonomicznego, prowadząc do ukrytej dyskryminacji. To prawdziwa łamigłówka do wykrycia bez rygorystycznych testów.
Niestety, te problemy nie są tylko teoretyczne. Artykuł na Artificial Intelligence News przypomina kilka głośnych spraw. W 2018 roku Amazon musiał porzucić narzędzie rekrutacyjne oparte na SI, ponieważ faworyzowało ono systematycznie kandydatów płci męskiej. Niektóre systemy rozpoznawania twarzy również wykazywały znacznie wyższe wskaźniki błędów identyfikacji dla osób o ciemniejszej karnacji niż dla osób rasy białej.
Ale najbardziej uderzającym przykładem jest prawdopodobnie ten dotyczący holenderskiej administracji podatkowej. W latach 2005-2019 algorytm używany do wykrywania oszustw związanych z zasiłkami rodzinnymi nieproporcjonalnie celował w rodziny z podwójnym obywatelstwem lub niskimi dochodami. Rezultat? Około 26 000 rodzin fałszywie oskarżonych. Skandal był tak duży, że doprowadził do dymisji holenderskiego rządu w 2021 roku. Prawdziwe trzęsienie ziemi, pokazujące dewastujący wpływ niekontrolowanej SI.
W obliczu tych wyzwań prawodawcy zaczynają reagować. Unia Europejska wprowadziła w 2024 roku swoje „AI Act”. To rozporządzenie, pierwsze takie na świecie, klasyfikuje systemy SI według poziomu ryzyka. Te uznane za wysokiego ryzyka, takie jak te używane w rekrutacji lub przyznawaniu kredytów, będą musiały spełniać surowe wymogi dotyczące przejrzystości, nadzoru ludzkiego i, oczywiście, weryfikacji uprzedzeń.
W Stanach Zjednoczonych, choć nie ma jeszcze jednolitej federalnej ustawy, agencje takie jak EEOC (Komisja ds. Równych Szans w Zatrudnieniu) i FTC (Federalna Komisja Handlu) są w pogotowiu, ostrzegając, że uprzedzone systemy mogą naruszać prawa antydyskryminacyjne. Biały Dom opublikował nawet „Blueprint for an AI Bill of Rights”, rodzaj karty dobrych praktyk. Niektóre stany, jak Kalifornia i Illinois, oraz miasto Nowy Jork, już podjęły inicjatywę, wprowadzając własne regulacje, szczególnie dotyczące wykorzystania SI w procesach zatrudnienia. W Nowym Jorku na przykład ustawa AEDT (Automated Employment Decision Tool), która weszła w życie 5 lipca 2023 roku, wymaga audytów uprzedzeń dla narzędzi SI używanych w rekrutacji i awansach.
Muzyka AI: miliard odsłuchań, zero fanów i 10 milionów dolarów (nielegalnego?) jackpota
Więc jak naprawić sytuację? Etyka w automatyzacji nie spada z nieba. Musi być wbudowana od samego początku.
Wyłaniają się trzy kluczowe strategie:
Czy wiesz, że?
Miasto Nowy Jork wymaga teraz, aby pracodawcy korzystający z automatycznych narzędzi rekrutacyjnych lub awansowych przeprowadzali niezależny audyt uprzedzeń w ciągu roku od użycia narzędzia. Muszą też publikować podsumowanie wyników i informować kandydatów co najmniej 10 dni roboczych wcześniej, gdy takie systemy są używane. Przejrzystość w czystej postaci!
Automatyzacja i SI są z nami na dobre, to oczywiste. Ale zaufanie, jakie im okażemy, będzie zależało od ich sprawiedliwości i jasności zasad, które je regulują. Ignorowanie uprzedzeń w systemach SI to nie tylko ryzyko prawne, ale prawdziwe wyzwanie społeczne. Dobra wiadomość jest taka, że rozwiązania istnieją: większa świadomość, lepszej jakości dane, rygorystyczne testy i bardziej inkluzywne projektowanie. Prawo może wyznaczać ramy, ale to zmiana kultury w samych firmach przyniesie prawdziwy postęp.
W końcu, dobrze wychowana i sprawiedliwa SI to jednak lepszy towarzysz w budowaniu przyszłości, nieprawdaż?
Jerome
Ekspert w dziedzinie tworzenia stron internetowych, SEO i sztucznej inteligencji, moje praktyczne doświadczenie w tworzeniu zautomatyzowanych systemów sięga 2009 roku. Dziś, oprócz pisania artykułów mających na celu rozszyfrowywanie aktualności i wyzwań AI, projektuję rozwiązania szyte na miarę oraz działam jako konsultant i szkoleniowiec w zakresie etycznej, wydajnej i odpowiedzialnej AI.