Kunstig intelligens på Facebook skal spotte terror-propaganda

Ifølge Mark Zuckerberg skal algoritmer være med til at bedømme indholdet på det sociale medie.

I fremtiden skal Facebooks algoritmer via kunstig intelligens være med til at spotte indhold, der for eksempel promoverer terrorisme. (Foto: Justin Tallis © Scanpix)

I fremtiden vil kunstig intelligens i form af algoritmer være i stand til at spotte terrorisme, vold, mobning og kunne forhindre selvmord.

Sådan lyder et af budskaberne i det brev, Facebook-stifteren, Mark Zuckerberg, i går offentliggjorde på sin egen Facebook-side. Det skriver BBC.

I brevet skriver han, at udviklingen af disse værktøjer vil tage flere år, da den kunstige intelligens skal kunne skelne mellem nyheder om terrorisme og propaganda for terrorisme.

- Det er værd at notere, at det kræver store fremskridt i kunstig intelligens for at kunne forstå tekst, fotografier og videoer for at vurdere, hvorvidt de indeholder hadefuld tale, udpenslet vold, seksuelt eksplicit indhold og mere, skriver Mark Zuckerberg blandt andet.

Den kunstige intelligens skal kunne spotte fotografier og videoer, som Facebooks medarbejdere så skal vurdere.

Mark Zuckerberg anerkender i brevet, at Facebook har begået fejl i forhold til at fjerne indhold fra det sociale medie. Det gælder blandt andet videoer med relation til Black Lives Matter-bevægelsen i USA, og det berømte fotografi af en napalmbrændt pige fra Vietnam-krigen.

Nyhedsbrev Tag dr.dk Nyheder med dig

Vælg mailingliste:

Vis alle nyhedsbreve

  • Kun breaking:
  • Alle nyheder:

DR Nyheder på YouTube