Du er mere kvalificeret til et job, hvis du er etnisk dansk, end hvis du er indvandrer.

Mænd er mere karriereorienterede end kvinder.

Fordommene her er ikke forbeholdt mennesker.

Kunstig intelligens har dem også - og de lever blandt mange andre fordomme i bedste velgående.

Hvis vi giver den kunstige intelligens en bunke med gode jobansøgninger, og de alle sammen er fra hvide mænd, så vil den fremadrettet fx frasortere sorte kvinder

Thomas bolander, dtu compute

Det har amerikanske forskere bevist med en sprogtest designet til kunstig intelligens.

Kunstig intelligens lærer nemlig sprog fra eksisterende materiale som eks. tekster skrevet af mennesker.

Dermed adopterer den kunstige intelligens de fordomme og forudindtagetheder, der er i det materiale, den lærer fra. Og den kunstige intelligens ender altså med at være lige så lidt objektiv som os mennesker.

- Computere spejler mennesker, ligesom børn reflekterer deres forældre, forklarer Thomas Terney, der er foredragsholder og har en baggrund som forsker i kunstig intelligens.

Racistisk intelligens

Når man tester menneskers fordomme - kaldet bias på engelsk - bruger man en associationstest.

Samme type test har forskere ved University of Washington i Seattle udviklet til kunstig intelligens.

Og resultatet beviser, at kunstig intelligens har de samme fordomme som mennesker.

Bag om undersøgelsen

Forskerne har analyseret omkring 2.2 millioner ord og vist, hvordan kunstig intelligens forholder sig overfor forskellige ord.

For hver menneskeskabt stereotyp, de testede, havde den kunstige intelligens samme stereotypiske opfattelse af ordet som os.

Fx opfattede den kunstige intelligens blomster og musikinstrumenter som behaglige ord, mens den opfattede insekter og våben forbandt som ubehagelige ord.

I en mere foruroligende del af testen opdagede forskerne, at den kunstige intelligens oplevede europæisk-amerikanske navne som mere behagelige end afrikansk-amerikanske navne.

Den kunstige intelligens associerede også mandlige navne med karrieremæssige ord og kvindelige navne med familieord. Mænd var tættere forbundet med matematik og videnskab og kvinder med kunst.

Da en kunstig intelligens blev bedt om at vælge den smukkeste blandt folk fra hele verden, valgte den næste kun hvide. Arkiv: Miss Africa Danmark audition i Århus, 2009. (Foto: Martin Ballund © Scanpix)

Når den kunstige intelligens bliver brugt forkert

Den kunstige intelligens bliver aldrig klogere end de data, vi mennesker fodrer den med, forklarer lektor ved DTU Compute, Thomas Bolander:

- Hvis vi giver den kunstige intelligens en bunke med gode jobansøgninger, og de alle sammen er fra hvide mænd, så vil den fremadrettet fx frasortere sorte kvinder, siger han.

Den mørke side af kunstig intelligens

Gal Twitter-robot
Da Microsoft i marts sidste år skabte kunstig intelligens-chatbotten Tray på Twitter, gik det ikke så hyggeligt som forventet. Inden der var gået 24 timer, var robotten begyndt at tweete både racistisk og neo-nacistisk, simpelthen fordi den havde lært af brugernes tweet-vaner.

Racistisk skønhedskonkurrence

Da den virtuelle skønhedskonkurrence Beauty.AI løb af stablen i 2016, var formålet at finde et skønhedsideal, der var fri af menneskelige fordomme. Flere tusinde personer fra over hundrede lande deltog og blev vurderet af en computer. Men helt fair var den ikke. Da resultaterne blev offentliggjort, var de 44 vindere stort set alle hvide.

Kilder: LifeScience og The Guardian

Og dette kan blive et problem.

En undersøgelse fra ProPublica viste sidste år, at de algoritmer, som amerikanske dommere brugere ved domsafsigelser, er hårdere mod sorte end hvide.

Det skyldes bl.a., at algoritmerne bygger på spørgsmål som: "Har nogen af forældrene været i fængsel?" og: "Hvor mange stofmisbrugere kender du?".

Fordi algoritmerne ikke tager udgangspunkt i personen selv, men i sociale omgivelser, skaber de et skævt resultat, da sorte i USA i højere grad lever i socialt belastede områder, skriver Version2.

Generaliseringer er nødvendig

Men generaliseringer er svære at komme uden om. For der er behov for dem, for at den kunstige intelligens overhovedet kan lære noget og fremadrettet selv forstå ting.

- Det er et grundvilkår for kunstig intelligens, at der er nogle generelle mønstre, som intelligensen kan lære af og dermed reproducere, siger Thomas Terney.

Nogle mener, at den kunstige intelligens' problem er den hvide mand, der ofte står bag udviklingen af den og derfor ubevidst propper nogle fordomme ind i den, skriver The New York Times.

Men det behøver ikke være tilfældet, mener Thomas Terney. For det er den viden, vi fodrer maskinen med, der fx gør den racistisk - ikke udviklerne.

Når den kunstige intelligens viser sig at være fordomsfuld, så er det i virkeligheden et spejlbillede af os, forklarer Thomas Thomas Terney. Arkivfoto: Spejl-Cube på Kunsten i Aalborg, Henning Bagger/SCANPIX DANMARK 2011 (Foto: henning Bagger © Scanpix)

Kunstig intelligens’ mønstre siger noget om os selv

- Det er vigtigt, at vi forskere er opmærksomme på det og fodrer den kunstige intelligens med data uden fordomme og bias, siger Thomas Terney.

Omvendt kan de amerikanske forskeres nye test til kunstig intelligens lære os mennesker noget om os selv.

For når den kunstige intelligens efterligner os, bliver det i dens mønster helt tydeligt, hvor fx sexistiske eller racistiske, vi er.

- Det er et spejl, der bliver holdt op foran os, og måske bliver vi klogere på os selv, siger Thomas Terney.

Thomas Bolander mener også, at det er vigtig at erkende, at man kun kan opnå "rigtig" intelligens i interaktion med den virkelige verden.

- En computer-algoritme, som kun er oplært på sprog og ikke virkelighed, kan ikke vurdere, om det er acceptabelt at frasortere jobansøgninger skrevet af børn eller ansøgere uden tilstrækkelig uddannelse eller ansøgninger skrevet af etniske minoriteter. Den har ikke noget begreb om børn og etniske minoriteter, siger han.