Syv spørgsmål til Instagram: Hvorfor har I ikke slettet blodige billeder af selvskade?

Instagram har lovet at fjerne blodige billeder af selvskade i privat netværk. Men billederne ligger fortsat på platformen.

Martin Ruby er politisk chef for Facebook og Instagram i Norden.

Bloddryppende snitsår, blodíge snitsår og en hånd smurt ind i blod.

Det er billeder, der er blevet delt i et lukket netværk på Instagram med omkring 1.000 danske brugere.

I netværket, som brugerne kalder "priv", deler særligt teenagepiger og unge kvinder tanker om psykisk sygdom, billeder af selvskade og selvmordstanker.

DR’s kortlægning af det lukkede priv-netværk viser, at de blodige billeder ligger i netværket, selvom de strider mod Instagrams politik om, hvad der må ligge på Instagrams platform.

I februar sidste år lovede Instagrams øverste chef, Adam Mosseri, at alle grafiske billeder af selvskade ville blive fjernet.

Og sidste sommer sagde Martin Ruby, der er politisk chef for Facebook og Instagram i Norden, at Instagram ville fjerne alle billeder, der anpriser til selvskade eller selvmord.

Herunder kan du læse, hvordan Martin Ruby svarer på syv spørgsmål fra DR om, hvorfor der fortsat ligger blodige billeder af selvskade på Instagram i strid med Instagrams egne regler, og hvad det sociale medie vil gøre for at indholdet i højere grad bliver fjernet i fremtiden.

DR advarer om voldsomme billeder undervejs i artiklen. Af etiske grunde har DR valgt ikke at vise de mest voldsomme billeder fra priv-netværket på Instagram.

1

Billeder af togskinner og brugere, der går på togskinner, er blevet delt i priv-netværket på Instagram.

I det netværk, vi har afdækket, bliver der lagt rigtig mange billeder ud af blod og selvskader, og der er mange referencer til selvmord, selvom I har en politik om, at det ikke må ligge på jeres medier. Hvorfor fjerner I ikke alle de billeder, der strider imod jeres egen politik?

- Vi prøver grundlæggende at være så dygtige til det, som vi kan være. Dermed ikke sagt, at der ikke er nogen tilfælde, hvor vi ikke fanger det. For nogle år siden var vi meget afhængige af, at folk anmeldte det til os. Det er vi stadig. Men vi har også investeret voldsomt i de her kunstig-intelligens-systemer, som hjælper os.

- Nu bruger vi både mennesker og maskiner til det her. Hvis du anmelder noget, er der folk, der vurderer ud fra vores regler, og så fjerner de det skadelige indhold. Men vi bruger også de her kunstig-intelligens-systemer, som jo er ny teknologi, som er blevet bedre og bedre.

- Sidste år var knap 80 procent af det, vi fjernede af selvmord og selvskade, faktisk noget, som vi selv fandt proaktivt via kunstig intelligens.

2

Et eksempel på et billede af selvskade fra priv-netværket på Instagram.

Hvis I har et system, der skal fange billeder med blodigt indhold, og man kan se, at I ikke gør det, hvad er det system så værd?

- Kunstig-intelligens-systemer er en relativt ny teknologi stadig. Den er ikke perfekt, det bliver den sikkert aldrig. Vil vi aldrig nogensinde kunne garantere alt indhold på nettet i forhold til terror eller porno eller vold eller selvskade og selvmord. Det kommer vi aldrig til at kunne garantere, men vi kan garantere, at vi kommer til at prøve at blive bedre og bedre.

- Det er slet ikke for at sige, at vi er i mål med det, for det er vi overhovedet ikke. Nu har du kigget grundigt på det her område i et stykke tid, og det fremstår jo tydeligt, at der stadig er noget at komme efter.

3

Det er teknoantropolog Asger Gehrt Olesen,der har kortlagt priv-netværket for DR. Han er kommet frem til, at der er omkring 1.000 brugere i netværket, at 95 procent af dem er danske, og at de har delt 100.000 opslag i netværket. En stor del af opslagene handler om selvskade og selvmord.

Den, der har analyseret det her for os, siger, at det har taget omkring en uge at finde et netværk på omkring 1.000 profiler, hvor mange udøver selvskade. I er en meget større virksomhed med mange flere penge. Hvorfor kan I ikke lynhurtigt finde ud af, hvad der er galt her?

- Der er jo forskel på indholdet. Noget indhold må jo godt ligge der, også selvom det er ubehageligt indhold. Noget indhold skal ikke være der, fordi det er for ubehageligt.

4

Nogle af pigerne i netværket (se videoen herover, red.) siger, at når de anmelder et billede, bliver det ikke taget seriøst. De kan anmelde noget, som de mener er meget blodigt, og så sidder der en på Instagram og forholder sig til det og siger ”det strider ikke imod nogen regler”. Hvad siger du til den kritik?

- Det tager jeg alvorligt. Vi efterlyser jo netop, at folk anmelder ting til os og peger os i de retninger, hvor vi skal kigge. Det skal vi jo så også gøre, når folk gør det. Hvis der er noget, der er klokkeklart og bare skal væk fra platformen, og hvis vi ignorerer eller ikke forstår de eksempler, så er det jo ikke godt nok.

- Til gengæld er der en stor mængde af indhold, som ligger i den gråzone, hvor det er et nødråb fra den enkelte. Nogle af de anmeldelser er noget af det, vi lader vi ligge. Og det er ikke tilfældigt. Det er velovervejet. Det er, efter vi har talt med eksperter og NGO’er om det. Men der er helt klart noget indhold, som bare skal væk.

5

Maja Luna på billederne her var meget aktiv i priv-netværket. Hun tog sit eget liv som 20-årig i 2019. Billederne er fra hendes profil i priv-netværket.

Hvad siger I til, at der ifølge netværket er mindst syv, der har begået selvmord, mens de har været i netværket?

- Det synes jeg da lyder frygteligt. Grundlæggende har vi vel et samfundsmæssigt problem i forhold til det her med, at vi i et stærkt velfungerende samfund har en masse unge, som tydeligvis har problemer og bærer det over på det sociale medier. Vores regler er sammensat omkring de her ting. Men det er da frygteligt.

6

Billeder som det her af ar og snitsår efter selvskade bliver delt i priv-netværket.

Det virker som om, at der er nogle ting, som bliver fjernet endnu hurtigere end selvskade. Bare bryster kan blive fjernet endnu hurtigere end folk, der skærer i sig selv.

- Det kan godt være. Jeg ved ikke, om man kan sætte et tal på det, men der er noget, der er nemmere. Noget terrorindhold, hvis der er et ISIS-flag for eksempel, er nemt for vores systemer at fange. Og nøgenhed er nemmere at fange end der, hvor det er kontekstafhængigt.

- Det er svært for os, når man tager et billede ud af en sammenhæng. Hvor billedet i sig selv ser uskyldigt ud, men hvis du putter det ind i en sammenhæng, hvor du ved, at det er værre. Det er svært for os at forstå, både for moderatoren, men også for de kunstig-intelligens-systemer.

7

Instagram bruger blandt andet kunstig-intelligens-teknologi til at moderere indholdet. (Foto: Thomas White © Scanpix)

Hvad vil I gøre for, at de her billeder ikke bliver ved med at florere ude på jeres netværk i strid med jeres egen politik?

- Vi må jo bare prøve at blive bedre og bedre. Hele tiden lære af eksperter, hvor problemerne flytter sig henad. Hvor flytter de unge og teknologien sig rundt? Og hvad er de nye trends? Så vi hele tiden følger med og laver politikker efter det, og så selvfølgelig sørger for, at moderatorer er skarpe på, hvilket indhold der skal ned, og hvad der ikke skal.

- Og så skal vi sørge for at investere i teknologi, der kan hjælpe os med at køre de store tjek af skadeligt indhold, selvmord og selvskade, men også af terror og vold og andre ting.

- Vi er inde at kigge grundigt på det. I har jo peget os i retning af det med nogle hårde billeder og eksempler.

DR-dokumentaren "Døde pigers dagbog" om priv-netværket bliver sendt på DR1 mandag 17. februar kl. 21:25, men kan allerede nu ses på DRTV via dette link.