Dokumentar om Coded Bias i AI programmering

Filmen Coded Bias giver alarmerende og indsigtsfulde synsvinkler på moderne overvågningsteknologi.

De seneste år er det blevet afsløret at AI software i moderne overvågnings teknologi er dårligt programmeret, og mangler videnskabelige evidens for deres påstande om f.eks. ansigt genkendelse. Nogle systemer er tilsyneladende kun testet af på hvide unge mænd, mens alle andre grupper i samfundet kan ikke genkendes, eller være: Systemerne laver falske positive genkendelser. Og problemerne stopper ikke ved ansigtsgenkendelse.

En sort kasse tog beslutningen…

Coded Bias er en tankevækkende dokumentar fra instruktør Shalini Kantayya. Den afslører racistisk og sexistisk bias i ansigtsgenkendelses software og andre kunstige intelligenssystemer. Såkaldt AI bruges i stigende grad som værktøj til at tage vigtige beslutninger, også i Danmark, uden at hverken myndigheder, lærere, læger eller elever, patienter eller bistandsmodtagere kan få at vide hvordan systemerne når frem til deres anbefalinger.

Dokumentaren har bidrag fra flere forskere, ikke mindst en stribe farvede kvinder der har været med til at afslører, at ansigtsgenkendelses systemer har meget lavere nøjagtighed, når man identificerer kvindelige og mørkere ansigter sammenlignet med hvide, mandlige ansigter.

Efter afsløringer og protester, har IBM, Amazon og Microsoft til dels standset eller begrænset salget af deres teknologi i USA. Amerikanske byer, især Boston og San Francisco, har forbudt regeringens brug af ansigtsgenkendelse og anerkender problemer.

Filmen udforsker også, hvordan beslutningsalgoritmer kan være modtagelige for bias. I 2014 udviklede Amazon for eksempel et eksperimentelt værktøj til screening af jobansøgere. Værktøjet byggede på den praksis der tidligere havde været i ansættelsesudvalget, og selvom det ikke var designet til at være sexistisk, blev kvinder sorteret fra, baseret på hvor de havde taget deres uddannelse. Dette værktøj blev aldrig brugt til at evaluere faktiske jobkandidater, men mange andre systemer til at måle de ansatte og grovsorterer ansøgere er blevet taget i brug i forskellige virksomheder.

AI-systemer kan også sammenstykke en profil af folks interesser og personlighed ud fra data om hvordan man surfer på Internettet. Personer kan derefter modtage målrettede online-annoncører. I Kina er udviklingen langt foran og her kan computersoftware give folk karakterer, ud fra deres opførsel i det offentlige rum, og de karakterer kan være med til at få betydning i jobsamtaler, forsikringspræmie mm.

I slutningen af filmen vidner Joy Buolamwini foran den amerikanske. Hun kræver at der bliver indført en lov der kan regulerer hvordan AI teknologi bruges og kvalitetstestes. Og engagere folk til at støtte retfærdighed, gennemsigtighed og ansvarlighed i brugen af AI, der i stigende grad bruges til at styre folks liv. Hun har nu grundlagt en gruppe kaldet Algorithmic Justice League, som prøver at sætte fokus på spørgsmålet.

Læs mere:

Artiklen er inspireret af anmeldelsen i New Scientist

Algorithmic Justice League

Undersøgelse viser at skolelærere har fordomme om deres elevers it evner.

I Danmark kan anbefales at støtte op om tænke tanken teknoetik og IT politisk forening

PS: I en side note kan det bemærkes at AI systemer ikke dur til at forstå hvad de læser endnu. En forsker har skrevet vrøvle artikler til online tidsskrifter og har fået dem bragt. Se historien på popularmechanics.

Interview med instruktøren Shalini Kantayya

En fin udsendelse på Fully Charged Plus med LJ Rich, der kommer ind på alt muligt, vender også spørgsmålet om bias i kunstig intelligens systemer. De nævner at dette ikke er begrænset til sprog og udseende, men til alt. f.eks. også musik algoritmer, hvor det er ganske svært at finde original folkemusik og traditioner fra andre kontinenter.

Om hubertnaur

Særlig interesse i fri og åben adgang til viden
Dette indlæg blev udgivet i AI kunstig inteligens. Bogmærk permalinket.

Skriv en kommentar

This site uses Akismet to reduce spam. Learn how your comment data is processed.