Algoritmer former i stigende grad vores liv, men pas på: uden etiske sikkerhedsforanstaltninger kan kunstig intelligens blive en frygtelig vektor for uretfærdighed. Et dybdegående kig på et afgørende spørgsmål for vores digitale fremtid.
Din næste låneansøgning, din jobsøgning, eller måske endda en medicinsk diagnose... Hvad nu hvis en kunstig intelligens (KI) var ved roret? Praktisk, men disse systemer, uanset hvor sofistikerede de er, kan forvandles til diskrimineringsmaskiner. Så hvordan kan vi sikre os, at KI ikke bliver det nye ansigt på ulighed, og at automatisering ikke bliver synonymt med diskrimination?
28/05/2025 23:19 JérômeDu undrer dig måske over, hvordan en maskine kan være forudindtaget? Tja, AI er lidt som et meget begavet barn: den lærer af det, vi viser den. Hvis de historiske data, den trænes på, afspejler tidligere diskrimination – for eksempel, hvis en bestemt gruppe historisk set er blevet behandlet dårligere i forbindelse med kreditgodkendelser – så risikerer AI at lære og videreføre de samme mønstre. Det er det berømte princip om "garbage in, garbage out" (forkerte data ind giver forkerte resultater ud).
Men det er ikke alt! Forudindtagethed kan også snige sig ind via selve systemets design. Valgene om, hvad der skal måles, hvilke resultater der skal prioriteres, eller hvordan data mærkes (ofte af mennesker med deres egne subjektive holdninger) kan alle forvrænge billedet. Her taler vi om udvalgsbias, når datasættet ikke repræsenterer alle grupper, eller mærkningsbias, der stammer fra menneskers subjektive vurderinger.
Googles IA Ultra-abonnement: Når kunstig intelligens beder om (meget) lommepenge
En af de mest snedige former for bias er proxy-bias. Forestil dig, at en AI forbydes at bruge et følsomt kriterium som etnisk oprindelse til at træffe en beslutning. God intention, ikke? Men den snedige AI kunne identificere andre tilsyneladende neutrale oplysninger, der i virkeligheden er stærkt korrelerede med dette kriterium. For eksempel kunne et postnummer eller uddannelsesniveau indirekte blive erstatninger (proxies) for oprindelse eller socioøkonomisk status, hvilket fører til skjult diskrimination. Det er en virkelig hovedpine at opdage uden grundige tests.
Desværre er disse problemer ikke kun teoretiske. Artiklen fra Artificial Intelligence News nævner nogle ikoniske sager. I 2018 måtte Amazon droppe et AI-værktøj til rekruttering, fordi det systematisk favoriserede mandlige kandidater. Nogle ansigtsgenkendelsessystemer har også vist langt højere fejlratier ved identifikation af mennesker med mørk hudfarve sammenlignet med hvide mennesker.
Men det mest slående eksempel er uden tvivl den hollandske skatteforvaltning. Mellem 2005 og 2019 brugte de en algoritme til at opdage svindel med børnepenge, som uforholdsmæssigt ramte familier med dobbelt statsborgerskab eller lave indkomster. Resultatet: omkring 26.000 familier blev uretmæssigt beskyldt. Skandalen var så stor, at den førte til den hollandske regerings afgang i 2021. Et rigtigt jordskælv, der viser den ødelæggende effekt af en dårligt kontrolleret AI.
Duolingo satser på AI: uglen fylder løs!
I lyset af disse udfordringer begynder lovgivere at reagere. Den Europæiske Union lancerede sin «AI Act» i 2024. Denne forordning, en verdenspremiere, klassificerer AI-systemer efter deres risikoniveau. Dem, der anses for højrisiko, som dem, der bruges til rekruttering eller kreditgodkendelse, skal overholde strenge krav om gennemsigtighed, menneskelig tilsyn og selvfølgelig bias-kontrol.
I USA er der endnu ikke en enkelt føderal lov, men agenturer som EEOC (Commission for Equal Employment Opportunity) og FTC (Federal Trade Commission) er på vagt og advarer om, at forudindtagne systemer kan bryde antidiskriminationslove. Det Hvide Hus har endda udgivet et «Blueprint for an AI Bill of Rights», en slags charter for bedste praksis. Og nogle stater, som Californien og Illinois, samt byen New York, har allerede taget initiativet med deres egne reguleringer, især vedrørende brug af AI i ansættelsesprocesser. I New York, for eksempel, kræver loven AEDT (Automated Employment Decision Tool), som trådte i kraft den 5. juli 2023, bias-revisioner for AI-værktøjer brugt i rekruttering og forfremmelser.
AlphaEvolve: Googles AI, der koder hurtigere end sin skygge
Så hvordan retter vi op på det? Etik i automatisering falder ikke ned fra himlen. Den skal integreres fra starten.
Tre nøglestrategier tegner sig:
Vidste du det?
Byen New York kræver nu, at arbejdsgivere, der bruger automatiseret værktøjer til rekruttering eller forfremmelser, skal få udført en uafhængig bias-revision inden for et år efter brug af værktøjet. De skal også offentliggøre en resumé af resultaterne og informere kandidaterne mindst 10 arbejdsdage i forvejen, når sådanne systemer bruges. Gennemsigtighed, når du rammer os!
Automatisering og AI er her for at blive, det er indlysende. Men den tillid, vi giver dem, afhænger af deres retfærdighed og klarheden i de regler, der styrer dem. At ignorere bias i AI-systemer er ikke kun en juridisk risiko, det er et samfundsmæssigt anliggende. Den gode nyhed er, at der findes løsninger: større bevidsthed, bedre data, grundige tests og mere inkluderende design. Love kan sætte rammer, men det er en kulturel ændring i virksomhederne, der vil bringe den virkelige fremskridt.
Trods alt, en velopdragen og retfærdig AI er da mere rar at bygge fremtiden med, ikke?
Jerome
Ekspert i webudvikling, SEO og kunstig intelligens, min praktiske erfaring med at skabe automatiserede systemer går tilbage til 2009. I dag, udover at skrive artikler for at afkode aktualiteter og udfordringer inden for AI, designer jeg skræddersyede løsninger og fungerer som konsulent og underviser for en etisk, effektiv og ansvarlig AI.