Clock IA > Forudindtaget AI, krænket retfærdighed: hvordan vores algoritmer lærer diskrimination
Forudindtaget AI, krænket retfærdighed: hvordan vores algoritmer lærer diskrimination

Når kunstig intelligens går galt: En undersøgelse af algoritmer, der spreder uretfærdighed

Algoritmer former i stigende grad vores liv, men pas på: uden etiske sikkerhedsforanstaltninger kan kunstig intelligens blive en frygtelig vektor for uretfærdighed. Et dybdegående kig på et afgørende spørgsmål for vores digitale fremtid.

Din næste låneansøgning, din jobsøgning, eller måske endda en medicinsk diagnose... Hvad nu hvis en kunstig intelligens (KI) var ved roret? Praktisk, men disse systemer, uanset hvor sofistikerede de er, kan forvandles til diskrimineringsmaskiner. Så hvordan kan vi sikre os, at KI ikke bliver det nye ansigt på ulighed, og at automatisering ikke bliver synonymt med diskrimination?

28/05/2025 23:19 Jérôme

AI, den store naive, der lærer vores fejl

Du undrer dig måske over, hvordan en maskine kan være forudindtaget? Tja, AI er lidt som et meget begavet barn: den lærer af det, vi viser den. Hvis de historiske data, den trænes på, afspejler tidligere diskrimination – for eksempel, hvis en bestemt gruppe historisk set er blevet behandlet dårligere i forbindelse med kreditgodkendelser – så risikerer AI at lære og videreføre de samme mønstre. Det er det berømte princip om "garbage in, garbage out" (forkerte data ind giver forkerte resultater ud).

Men det er ikke alt! Forudindtagethed kan også snige sig ind via selve systemets design. Valgene om, hvad der skal måles, hvilke resultater der skal prioriteres, eller hvordan data mærkes (ofte af mennesker med deres egne subjektive holdninger) kan alle forvrænge billedet. Her taler vi om udvalgsbias, når datasættet ikke repræsenterer alle grupper, eller mærkningsbias, der stammer fra menneskers subjektive vurderinger.

Googles IA Ultra-abonnement: Når kunstig intelligens beder om (meget) lommepenge

Ulven forklædt som postnummer: Fælden med "proxy bias"

En af de mest snedige former for bias er proxy-bias. Forestil dig, at en AI forbydes at bruge et følsomt kriterium som etnisk oprindelse til at træffe en beslutning. God intention, ikke? Men den snedige AI kunne identificere andre tilsyneladende neutrale oplysninger, der i virkeligheden er stærkt korrelerede med dette kriterium. For eksempel kunne et postnummer eller uddannelsesniveau indirekte blive erstatninger (proxies) for oprindelse eller socioøkonomisk status, hvilket fører til skjult diskrimination. Det er en virkelig hovedpine at opdage uden grundige tests.

Når algoritmen går galt: konkrete eksempler og virkelige konsekvenser

Desværre er disse problemer ikke kun teoretiske. Artiklen fra Artificial Intelligence News nævner nogle ikoniske sager. I 2018 måtte Amazon droppe et AI-værktøj til rekruttering, fordi det systematisk favoriserede mandlige kandidater. Nogle ansigtsgenkendelsessystemer har også vist langt højere fejlratier ved identifikation af mennesker med mørk hudfarve sammenlignet med hvide mennesker.

Men det mest slående eksempel er uden tvivl den hollandske skatteforvaltning. Mellem 2005 og 2019 brugte de en algoritme til at opdage svindel med børnepenge, som uforholdsmæssigt ramte familier med dobbelt statsborgerskab eller lave indkomster. Resultatet: omkring 26.000 familier blev uretmæssigt beskyldt. Skandalen var så stor, at den førte til den hollandske regerings afgang i 2021. Et rigtigt jordskælv, der viser den ødelæggende effekt af en dårligt kontrolleret AI.

Duolingo satser på AI: uglen fylder løs!

En sheriff i byen? Regulatorerne træder ind i dansen

I lyset af disse udfordringer begynder lovgivere at reagere. Den Europæiske Union lancerede sin «AI Act» i 2024. Denne forordning, en verdenspremiere, klassificerer AI-systemer efter deres risikoniveau. Dem, der anses for højrisiko, som dem, der bruges til rekruttering eller kreditgodkendelse, skal overholde strenge krav om gennemsigtighed, menneskelig tilsyn og selvfølgelig bias-kontrol.

I USA er der endnu ikke en enkelt føderal lov, men agenturer som EEOC (Commission for Equal Employment Opportunity) og FTC (Federal Trade Commission) er på vagt og advarer om, at forudindtagne systemer kan bryde antidiskriminationslove. Det Hvide Hus har endda udgivet et «Blueprint for an AI Bill of Rights», en slags charter for bedste praksis. Og nogle stater, som Californien og Illinois, samt byen New York, har allerede taget initiativet med deres egne reguleringer, især vedrørende brug af AI i ansættelsesprocesser. I New York, for eksempel, kræver loven AEDT (Automated Employment Decision Tool), som trådte i kraft den 5. juli 2023, bias-revisioner for AI-værktøjer brugt i rekruttering og forfremmelser.

AlphaEvolve: Googles AI, der koder hurtigere end sin skygge

At bygge mere retfærdig AI: en (ikke) umulig mission

Så hvordan retter vi op på det? Etik i automatisering falder ikke ned fra himlen. Den skal integreres fra starten.

Tre nøglestrategier tegner sig:

  • Vurder bias igen og igen: Bias-revisioner skal udføres regelmæssigt, fra udvikling til implementering. Og for mere objektivitet og tillid er der intet som en revision fra en tredjepart.
  • Leve mangfoldigheden (af data): For at reducere bias skal AI trænes med rige og varierede datasæt, der inkluderer repræsentative prøver fra alle brugergrupper, især dem, der ofte er marginaliserede. En stemmegenkendelses-AI, der hovedsageligt er trænet på mandlige stemmer, vil fungere dårligere for kvinder. Logisk, ikke? Men pas på, disse data skal også være præcise og korrekt mærkede.
  • Design inkluderende: Det betyder at involvere de berørte, især dem, der risikerer at lide mest under en forudindtaget AI. Rådgivning med rettighedsgrupper, etikeksperter eller lokale fællesskaber er afgørende. Og det kræver også diversificerede udviklingsteams, "et team bygget af en homogen gruppe kan overse risici, som andre ville have opdaget".

Vidste du det?

Byen New York kræver nu, at arbejdsgivere, der bruger automatiseret værktøjer til rekruttering eller forfremmelser, skal få udført en uafhængig bias-revision inden for et år efter brug af værktøjet. De skal også offentliggøre en resumé af resultaterne og informere kandidaterne mindst 10 arbejdsdage i forvejen, når sådanne systemer bruges. Gennemsigtighed, når du rammer os!

Automatisering og AI er her for at blive, det er indlysende. Men den tillid, vi giver dem, afhænger af deres retfærdighed og klarheden i de regler, der styrer dem. At ignorere bias i AI-systemer er ikke kun en juridisk risiko, det er et samfundsmæssigt anliggende. Den gode nyhed er, at der findes løsninger: større bevidsthed, bedre data, grundige tests og mere inkluderende design. Love kan sætte rammer, men det er en kulturel ændring i virksomhederne, der vil bringe den virkelige fremskridt.

Trods alt, en velopdragen og retfærdig AI er da mere rar at bygge fremtiden med, ikke?

Jerome

Ekspert i webudvikling, SEO og kunstig intelligens, min praktiske erfaring med at skabe automatiserede systemer går tilbage til 2009. I dag, udover at skrive artikler for at afkode aktualiteter og udfordringer inden for AI, designer jeg skræddersyede løsninger og fungerer som konsulent og underviser for en etisk, effektiv og ansvarlig AI.

Facebook - X (Twitter) - Linkedin
Clock IA > Forudindtaget AI, krænket retfærdighed: hvordan vores algoritmer lærer diskrimination