Tech

Kunstig intelligens er lige så diskriminerende som dig

​Forskere har med en sprogtest bevist, at kunstig intelligens er præcis så fordomsfuld som os mennesker.

Du er mere kvalificeret til et job, hvis du er etnisk dansk, end hvis du er indvandrer.

Mænd er mere karriereorienterede end kvinder.

Fordommene her er ikke forbeholdt mennesker.

Kunstig intelligens har dem også - og de lever blandt mange andre fordomme i bedste velgående.

Det har amerikanske forskere bevist med en sprogtest designet til kunstig intelligens.

Kunstig intelligens lærer nemlig sprog fra eksisterende materiale som eks. tekster skrevet af mennesker.

Dermed adopterer den kunstige intelligens de fordomme og forudindtagetheder, der er i det materiale, den lærer fra. Og den kunstige intelligens ender altså med at være lige så lidt objektiv som os mennesker.

- Computere spejler mennesker, ligesom børn reflekterer deres forældre, forklarer Thomas Terney, der er foredragsholder og har en baggrund som forsker i kunstig intelligens.

Racistisk intelligens

Når man tester menneskers fordomme - kaldet bias på engelsk - bruger man en associationstest.

Samme type test har forskere ved University of Washington i Seattle udviklet til kunstig intelligens.

Og resultatet beviser, at kunstig intelligens har de samme fordomme som mennesker.

For hver menneskeskabt stereotyp, de testede, havde den kunstige intelligens samme stereotypiske opfattelse af ordet som os.

Fx opfattede den kunstige intelligens blomster og musikinstrumenter som behaglige ord, mens den opfattede insekter og våben forbandt som ubehagelige ord.

I en mere foruroligende del af testen opdagede forskerne, at den kunstige intelligens oplevede europæisk-amerikanske navne som mere behagelige end afrikansk-amerikanske navne.

Den kunstige intelligens associerede også mandlige navne med karrieremæssige ord og kvindelige navne med familieord. Mænd var tættere forbundet med matematik og videnskab og kvinder med kunst.

Da en kunstig intelligens blev bedt om at vælge den smukkeste blandt folk fra hele verden, valgte den næste kun hvide. Arkiv: Miss Africa Danmark audition i Århus, 2009. (Foto: Martin Ballund © Scanpix)

Når den kunstige intelligens bliver brugt forkert

Den kunstige intelligens bliver aldrig klogere end de data, vi mennesker fodrer den med, forklarer lektor ved DTU Compute, Thomas Bolander:

- Hvis vi giver den kunstige intelligens en bunke med gode jobansøgninger, og de alle sammen er fra hvide mænd, så vil den fremadrettet fx frasortere sorte kvinder, siger han.

Og dette kan blive et problem.

En undersøgelse fra ProPublica viste sidste år, at de algoritmer, som amerikanske dommere brugere ved domsafsigelser, er hårdere mod sorte end hvide.

Det skyldes bl.a., at algoritmerne bygger på spørgsmål som: "Har nogen af forældrene været i fængsel?" og: "Hvor mange stofmisbrugere kender du?". Fordi algoritmerne ikke tager udgangspunkt i personen selv, men i sociale omgivelser, skaber de et skævt resultat, da sorte i USA i højere grad lever i socialt belastede områder,skriver Version2.

Generaliseringer er nødvendig

Men generaliseringer er svære at komme uden om. For der er behov for dem, for at den kunstige intelligens overhovedet kan lære noget og fremadrettet selv forstå ting.

- Det er et grundvilkår for kunstig intelligens, at der er nogle generelle mønstre, som intelligensen kan lære af og dermed reproducere, siger Thomas Terney.

Nogle mener, at den kunstige intelligens' problem er den hvide mand, der ofte står bag udviklingen af den og derfor ubevidst propper nogle fordomme ind i den, skriver The New York Times.

Men det behøver ikke være tilfældet, mener Thomas Terney. For det er den viden, vi fodrer maskinen med, der fx gør den racistisk - ikke udviklerne.

Når den kunstige intelligens viser sig at være fordomsfuld, så er det i virkeligheden et spejlbillede af os, forklarer Thomas Thomas Terney. Arkivfoto: Spejl-Cube på Kunsten i Aalborg, Henning Bagger/SCANPIX DANMARK 2011 (Foto: henning Bagger © Scanpix)

Kunstig intelligens’ mønstre siger noget om os selv

- Det er vigtigt, at vi forskere er opmærksomme på det og fodrer den kunstige intelligens med data uden fordomme og bias, siger Thomas Terney.

Omvendt kan de amerikanske forskeres nye test til kunstig intelligens lære os mennesker noget om os selv.

For når den kunstige intelligens efterligner os, bliver det i dens mønster helt tydeligt, hvor fx sexistiske eller racistiske, vi er.

- Det er et spejl, der bliver holdt op foran os, og måske bliver vi klogere på os selv, siger Thomas Terney.

Thomas Bolander mener også, at det er vigtig at erkende, at man kun kan opnå "rigtig" intelligens i interaktion med den virkelige verden.

- En computer-algoritme, som kun er oplært på sprog og ikke virkelighed, kan ikke vurdere, om det er acceptabelt at frasortere jobansøgninger skrevet af børn eller ansøgere uden tilstrækkelig uddannelse eller ansøgninger skrevet af etniske minoriteter. Den har ikke noget begreb om børn og etniske minoriteter, siger han.

Facebook
Twitter