'Langt over grænsen': Blodige selvskade-billeder ikke fjernet fra Instagram

Instagram lovede at stramme op, men der ligger fortsat billeder af snitsår på platformen.

DR kan dokumentere, at en lang række af de voldsomme billeder af selvskade stadig ligger på Instagram. Grafik: Mette Ehlers

Blodige snitsår på arme og ben. Et barberblad smurt ind i blod. Blod der løber fra et åbent sår ned i en toiletkumme.

Det er eksempler på billeder, som DR har fundet i et lukket netværk på Instagram, hvor især sårbare unge kvinder og piger blandt andet deler billeder af selvskader og selvmordsrelaterede opslag.

DR fortalte første gang om netværket i februar i forbindelse med dokumentaren 'Døde pigers dagbog'. Dengang sagde Instagram, at de ville blive bedre til at fjerne selvskade-indhold, der strider mod Instagrams egne retningslinjer.

Men nu kan DR dokumentere, at en lang række af de voldsomme billeder af selvskade stadig ligger på Instagram.

- Det her materiale er så voldsomt, at det burde være blevet opsnappet. Billederne er langt over grænsen. De er meget alvorlige, og de er skadelige for unge at være vidne til, siger Lotte Rubæk, der er psykolog og leder af Team for selvskade i Region Hovedstaden.

Både nye og ældre selvskadebilleder i netværket

DR har haft adgang til at se en lille del af netværket på Instagram. Her har vi i samarbejde med en it-ekspert fundet over 100 billeder af selvskader og selvmordsrelaterede opslag, der allerede lå på Instagram, da DR-dokumentaren blev sendt for et halvt år siden.

Samtidig står det klart, at der siden februar er tilføjet nye voldsomme billeder af selvskade og selvmordsrelaterede opslag i netværket.

Lotte Rubæk mener, at Instagram har et stort ansvar for hurtigt at få fjernet billederne, som hun beskriver som ”meget skadelige” for især sårbare unge.

- Det at se andre selvskade kan gøre, at man får lyst til at anvende nogle nye metoder, altså at man får lyst til at efterligne de metoder, man ser, andre har, siger Lotte Rubæk.

I forbindelse med dokumentaren 'Døde pigers dagbog' fortalte DR’s kilder i netværket, at syv medlemmer af netværket havde begået selvmord på det tidspunkt.

DR har siden fået bekræftet, at endnu en ung kvinde, der havde en profil i netværket, har taget sit eget liv inden for de seneste uger.

Instagram: Det er ikke godt nok

DR har vist en række af selvskade-billederne i netværket til Martin Ruby, der er politisk chef for Instagram i Norden.

- Selvfølgelig hører det her ikke hjemme på vores platform. Mange af de her bryder jo soleklart med vores regler, siger han.

Hvordan har du det med, at vi kan vise, at de billeder, som I allerede én gang har sagt ikke bør ligge på jeres platform, stadig ligger der?

- Det er ikke godt nok. Der er jo mange forklaringer på det, og jeg ved ikke, om der er nogen af dem, der er gode nok.

- Men vi har haft nogle udfordringer under coronatiden ved, at vi simpelthen rent fysisk har sendt mange af vores medarbejdere hjem. Og sådan noget arbejde som det her med at kigge på folks data og folks profiler, det må man ikke tage med hjem af privacy-hensyn.

- Og den anden ting har været, at vores teknologi ikke finder nok. Og at vi derfor hele tiden leder efter noget bedre teknologi, siger Martin Ruby til DR.

I videoen her kan se Martin Ruby reagere på at se billederne af selvskade på Instagram.

Ekspert fandt selvskade-billeder med computerprogram

Det er Asger Gehrt Olesen, der er Ph.D og teknoantropolog på Aalborg Universitet, der har hjulpet DR med at undersøge, hvilke selvskade-billeder der fortsat er at finde på Instagram.

Han har blandt andet brugt et billedgenkendelses-program, som for eksempel kan sættes til at lede efter billeder med blod, sår, ar eller et knivblad.

Programmet, som enhver kan købe på nettet, viste sig at være i stand til at identificere en lang række selvskadebilleder i netværket på Instagram.

- Det er meget effektivt. Det gjorde os i stand til at finde de billeder, som, vi mener, overskrider de regler, der er på Instagram. Altså som eksplicit viser selvskade, forklarer Asger Gehrt Olesen.

Derfor undrer det ham, at Instagram ikke har været i stand til at finde og fjerne de samme billeder, når de ved flere lejligheder har fremhævet brugen af kunstig intelligens til at finde skadeligt indhold på deres platform.

- Så er det jo ret ulogisk, at de ikke har pudset deres program på og ryddet op i det materiale. Det mener jeg bestemt er nærmest lige til for dem, siger Asger Gehrt Olesen til DR.

Martin Ruby, politisk chef for Instagram i Norden, hvordan forklarer du, at I ikke kan finde de her ting med jeres software?

- Personligt kan jeg ikke forklare hvordan, for jeg tænker jo også umiddelbart, at vi har nogle af de bedste ingeniører og udviklere. Jeg tænker, at vi har noget af den bedste teknologi, der kan findes i verden, så det er klart, at det er overraskende, siger Martin Ruby.

Ekspert: Det giver ingen mening

Teknoantropolog Asger Gehrt Olesen mener, at det bunder i manglende prioritering, når Instagram ikke har fjernet de mange selvsskade-billeder.

- Det giver jo slet ikke mening, hverken i forhold til Instagrams egne politikker eller det, de har udtalt tidligere omkring, at netop de her billeder stadigvæk er her. Det bevidner jo i virkeligheden, at der ikke har været den rette opmærksomhed på det fra deres side, siger han.

Men det afviser Instagram.

- Jeg kan godt se på jeres eksempler, at vi er jo tydeligvis ikke i mål med det. Men vi bruger jo masser af mennesker på det her, vi bruger masser af teknologi på det, vi bruger masser af ressourcer på det, vi bruger masser af intern fokus, beslutningstid, beslutningskraft, alt det her, på at prøve at få ryddet op på platformen hele tiden, siger Martin Ruby.

Vil I ansætte flere til at være moderatorer på det her materiale?

- På al moderation i det hele taget, der vil jeg bestemt forvente, at vi sikkert har flere ansat om seks måneder, end vi har nu, og vi øger hele tiden investeringerne i de her kunstig intelligens-systemer, fordi løsningen bliver nødt til at blive fundet i en eller anden mix af de to ting.

Vil indføre forbedret computerprogram

Instagrams politiske chef i Norden oplyser samtidig, at Instagram arbejder på at tage et nyt og forbedret computerprogram i brug, som ifølge ham er bedre til at finde skadeligt indhold, blandt andet ved at koble billeder og opslagstekst.

- Det vil sige, at du kan have et billede af en bro, for eksempel, som ser uskyldig ud, men hvor der kan stå noget frygteligt ved siden af. En ung pige, der kan sige, at nu hopper jeg ud fra broen og begår selvmord. Det vil vi ikke fange i dag, nødvendigvis, medmindre nogen anmelder det til os.

- Men med den nye teknologi vil vi faktisk være i stand til at koble de to ting sammen og med stor sandsynlighed fange det. Så vi håber at kunne flytte os derover på et tidspunkt, siger Martin Ruby.

Programmet er endnu ikke taget i brug i Europa, fordi Instagram først skal have afklaret, om programmet kan give problemer i forhold til de europæiske regler om beskyttelse af personfølsomme oplysninger.

Det er Instagram lige nu i dialog med tilsynsmyndigheder og andre relevante myndigheder om rundt omkring i en række EU-lande, forklarer Martin Ruby.

DR har af etiske hensyn valgt ikke at vise de voldsomme billeder fra netværket.

Du kan se mere i 21 Søndag i aften på DR1 kl. 21.00.

Facebook
Twitter