Efter terrorvideo fra Christchurch: Facebook vil ændre livestream-procedure

Terrorvideo blev ikke gennemgået hurtigt nok, fastslår det sociale medie.

Terrorangrebet mod to moskeer i Christchurch i New Zealand blev optaget og delt i en live-video på Facebook. Det sociale medie vil øge indsatsen over for lignende video-delinger. (Foto: Edgar Su © Scanpix)

Den 17 minutter lange video fra angrebet i to moskeer i den new zealandske by Christchurch, som blev live-streamet på Facebook, fik i første omgang ikke fuld opmærksomhed fra sikkerhedsfolkene hos det sociale medie.

Det erkender Facebook i et blogindlæg.

Vicepræsident hos Facebook, Guy Rosen, skriver således, at Facebook nu vil 'genoverveje' sin livestream-politik efter video-delingerne fra terrorangrebet i New Zealand.

Under terrorangrebet optog den formodede gerningsmand selv videoen, hvor han skød og dræbte 50 mennesker.

Siden har det sociale medie blokeret og fjernet videoen omkring 1,5 millioner gange.

I blogindlægget fremgår det også, at Facebook første gang modtog en anmeldelse omkring indholdet i videoen 12 minutter efter, at livestreamingen var afsluttet.

Hidtil har det ifølge Facebook været procedure, at nylige livestreaming-videoer, der bliver 'flagget' (anmeldt) i kategorien selvmord, har fået "accelereret prioritet" hos Facebook - det betyder, at de rykker frem i køen hos de Facebook-ansatte, der konstant sidder og gennemgår krænkende og ulovligt indhold.

Men Facebook skriver, at den pågældende video fra Christchurch blev anmeldt for "andre årsager end selvmord", og derfor blev den behandlet efter "andre procedurer".

- Som en læring herfra vil vi gennemgå vores rapporteringslogik og erfaringer fra live- og nylige live-videoer for at udvide de kategorier, der vil få accelereret gennemgang, skriver Facebook.

Kunstig intelligens skal opfange videoer

I blogindlægget skriver Facebook desuden, at udviklingen af kunstig intelligens skal være med til at at opfange videoer, der eksempelvis indeholder terrorhandlinger. Men det er en svær opgave at få systemerne til at genkende og blokere denne type videoer, fordi det ifølge Facebook kræver mange tusinde eksempler på lignende indhold.

DR's tech-analytiker, Carsten Nielsen, er enig i, at det er svært at lave et filter, der kan favne alle de tænkelige scenarier.

- Generelt er der måske en tendens til, at vi har lidt for høje tanker om kunstig intelligens i forhold til, hvad den kan få ud af noget, der farer forbi. Der kan jo være mange situationer, der kan ligne terror - for eksempel en video af mennesker, der løber i et storcenter til Black Friday, siger Carsten Nielsen og tilføjer:

- Men man bliver hele tiden bedre til at få mere i fiskenettet.

800 forskellige versioner

Et af problemerne er, at den samme video kan komme i et utal af forskellige versioner. Facebook oplyser, at der var omkring 800 visuelt forskellige versioner af terrorvideoen fra Christchurch. Derfor skal udviklingen af audio-teknologi, som opfanger lyden, være med til at blokere ulovligt eller krænkende materiale, oplyser det sociale medie.

- Jo flere værktøjer, de har til at opfange video og lyd, jo større er chancen for, at man kan zoome ind på det indhold, der ikke skal deles, siger Carsten Nielsen.

I blogindlægget argumenterer Facebook desuden for, hvorfor der ikke kommer en forsinkelse på live-videoer, så man måske kunne opdage terror-videoer, inden de blev spredt.

Årsagen er ifølge Facebook, at der er så mange millioner af live-videoer på Facebook, at de ikke kan nå at forhåndstjekke dem alle. Derudover nævner Facebook, at brugernes anmeldelser af live-begivenheder også er med til at sikre, at hjælp kan nå frem hurtigt.

Facebook
Twitter