Kunstig intelligens til at manipulere billeder lyder måske ganske uskyldigt.
Men de sidste par års debat om fænomenet Deepfakes, hvor for eksempel pornoskuespilleres ansigter kan skiftes ud med kendisser eller bekendtes ansigter, er alt andet end uskyldigt.
Og hvor det tidligere har krævet en kraftig computer og tekniske kundskaber ud over gennemsnittet at lave Deepfake-videoer, har teknologien nu flyttet sig til at være meget mere tilgængelig.
Kort sagt kan næsten alle og enhver nu lave et hvilket som helst billede af en kvinde om til et nøgenbillede med appen Deepnude, det skriver Vices tech-sektion, Motherboard.
Appen er nu blevet fjernet, men DR Viden har bekræftet, at den virkede - og at den stadig bliver delt flittigt på nettet, selvom skaberen har forsøgt at trække den tilbage.
Redskaber til chikane bliver mere udbredte
Udbredelsen af teknologi, som er designet til digitalt at "skrælle" tøjet af kvinder, uden deres samtykke, bekymrer Maia Lorentzen, konsulent og aktivist i Cybernauterne. Hun underviser blandt andet i digital sikkerhed og digital dannelse:
- Det er altid bekymrende, når redskaber, der kan bruges til at chikanere, udskamme og ydmyge kvinder, bliver mere udbredte og tilgængelige. Det er samme bevægelse her. Før skulle man have teknisk snilde for at lave videoer, nu kan alle gøre det på et par sekunder med den her app, siger hun til DR Viden.
Da Deepfake-videoer for alvor brød frem i vinter, frygtede mange, at det ville indvarsle en ny tidsalder for falske nyheder. Blandt andet producerede mediet Buzzfeed sammen med den Oscar-vindende filminstruktør Jordan Peele en meget omtalt falsk video af Barack Obama:
Falske billeder med ægte konsekvenser
Men teknologien bliver nu også brugt til at chikanere og ydmyge kvinder i alle samfundslag:
- Det bliver brugt mod alle mulige. Både til at ydmyge kvinder, der har en offentlig platform, eller til at hævne sig mod ekskærester eller kollegaer. Det er en ret effektiv taktik. Men de kvinder, det går ud over, oplever det som ekstremt grænseoverskridende, og nogle oplever også, at de bliver opsøgt i offentligheden og konfronteret med nøgenbilleder eller videoer, som de ikke har deltaget i, siger hun.
For nok er billederne falske, men konsekvenserne for de kvinder, der på den måde er blevet udstillet, er ægte nok. Som teknologien bliver bedre og mere udbredt, bliver det nemlig sværere at se forskel på rigtigt og forkert, fortæller Maia Lorentzen.
- Vi skal tage det alvorligt, fordi mange ikke kan se, at det er falskt. Det påvirker parforhold, sociale relationer på arbejdspladsen eller i skolen, og kan dermed følge en resten af livet. Og så bliver de her kvinder kontaktet af tilfældige fremmede, der opsøger dem for sex, fordi de har set dem i, hvad der ligner ægte pornofilm.
Og i sidste ende kan det mærkes, hvis man er blevet udstillet på nettet, uanset om billedet er ægte eller ej:
- Konsekvensen er, at kvinderne får psykiske symptomer, som minder om at være udsat for en fysisk, seksuel krænkelse, selvom den udelukkende er digital, fortæller Maia Lorentzen.
Udbredt teknologi er et våbenkapløb
Deepfake-teknologien blev skabt til at skifte ansigter i videoklip ved at udskifte ansigtet i videoen med et andet, billede for billede. Det kræver tid, en kraftig computer og en del teknisk snilde. Men skal man kun erstatte tøjet med bar hud på et enkelt billede i stedet for en video, kræver det meget færre ressourcer.
Derfor kan den nye app køre på selv helt almindelige arbejdscomputere uden store grafikkort.
Og i dag er den type genkendelse og erstatning af indhold i for eksempel billeder helt gængs teknologi, forklarer Anders Kofod-Petersen, vicedirektør i Alexandra Instituttet og professor i kunstig intelligens ved Norges Teknisk-Naturvidenskabelige Universitet (NTNU) i Trondheim:
- Teknologierne og matematikken har været kendt siden 60'erne. Men eksplosionen i regnekraft og datamængderne gør, at det bevæger sig ud fra industrien og universiteterne. Nu bliver det til værktøjer, som gør mange flere i stand til at bruge avanceret kunstig intelligens. Og alle værktøjer, som man udvikler til noget fornuftigt, kan man også bruge til noget åndssvagt.
Specifikt rettet mod at afklæde kvinder
Til Motherboard forklarer skaberen af teknologien, at den identificerer tøj på billeder af kvinder, og så forsøger den at erstatte tøjet med, hvad programmet har lært om kvindekroppen ved at se på tusindevis af billeder af nøgne kvinder.
Dermed sagt, at den også kunne være trænet til at udskifte tøjet med fårepels, græs, luft eller alt andet, man kan finde mange billeder af. Men skaberen af appen valgte tilsyneladende nøgne kvinder.
Og det er ikke tilfældigt, at appen er rette mod kvinder, mener Maia Lorentzen:
- Det er en ydmygelsestaktik, uanset hvilke motiver, skaberne siger, de har. Det er en måde digitalt at flå tøjet af nogen, der ikke ønsker det. Det har helt klart en kønnet slagside. Det er andre, der bestemmer, om man skal være nøgen, uden at man selv kan vælge det fra eller til.
Internettet glemmer aldrig
Hvis man bliver udsat for den type krænkelse, som appen giver mulighed for, kan det virke umuligt at gøre noget. Internettet glemmer aldrig, siger et moderne ordsprog.
Maia Lorentzen har dog et par forslag til, hvad man kan gøre.
- Man skal selvfølgelig melde det til politiet, fordi det er alvorligt og æreskrænkende. Og hvis det sker i ens sociale miljø, for eksempel i skolen eller på arbejdspladsen, så skal man gå til ledelsen med sagen. Dernæst kan man afkræfte det og forsvare sig, ved at vise det oprindelige billede, før det blev manipuleret. Og man kan tale med organisationen Digitalt Ansvar, en organisation som forsøger at hjælpe med hævnporno og digitale seksuelle krænkelser, siger hun.
Også når det kommer til Deepnude-appen, så glemmer internettet heller ikke. Oprindeligt lancerede den anonyme skaber en gratis-udgave, som lagde et meget stort vandmærke over billederne, den skabte.
Så kunne man betale omkring 350 kroner for den fulde udgave af programmet, som blot satte et lille vandmærke med ordet fake i hjørnet.
Men grundet stor opmærksomhed og frygt for misbrug, forsøgte skaberen i nat at trække Deepnude tilbage.
Programmet er heller ikke at finde på den oprindelige side, men DR Viden har bekræftet, at man stadig kan finde en fuldt funktionsdygtig udgave af programmet på nettet.