Racistisk Microsoft-chatbot nedsmelter totalt

Det var en stakket frist for Microsofts Twitter-robot Tay, der i sidste uge var racist og onsdag genopstod ved en fejl for derefter at gå i baglås.

Tay blev racist på rekordtid, forsvandt og genopstod som rebelsk hashryger. (Foto: skærmdump)

Det er ikke let at være en kunstig intelligens - og slet ikke på Twitter, hvor de andre brugere driller.

Det må Microsoft nu igen sande, efter at selskabet onsdag for anden gang måtte hive stikket ud af chatbotten Tay, der ellers skulle have været en fuldautomatisk Twitter-assistent, som skulle have konverseret i et ungdommeligt sprog med de andre Twitter-brugere.

Første gang Tay blev pillet ned var før påske, hvor chatbotten var begyndt at tweete racistiske kommentarer.

Donald Trump-tilhænger og holocaust-benægter

Tay skulle have været en bot, der lærer af kontakten med andre Twitter-brugere - men Twitter-folket begyndte - måske ikke så overraskende - at presse citronen og fodre Tay med ondskab af forskellig art, herunder racistiske og sexistiske udsagn.

Den viljeløse chatbot lod sig i sagens natur påvirke af sin omgangskreds - og endte kort efter som holocaustbenægter, Donald Trump-fan og konspiratorisk fortaler for, at det var George W. Bush, der stod bag angrebet mod World Trade Center i 2001.

Den besynderlige forestilling stod på ganske længe, inden Microsoft valgt at lukke ned for Tay i sidste uge. Selskabet udsendte herefter en uforbeholden undskyldning.

Gik galt igen

Denne uge dukkede Tay dog pludselig og uden varsel op på Twitter igen. Og også denne gang gik det galt efter ganske kort tid.

Af ikke helt klarlagte årsager begyndte Tay at tweete om at ryge hash foran politiet, hvorefter den såkaldte kunstige intelligens gik i selvsving og begyndte at skrive 'du er for hurtig, tag det roligt' talrige gange, indtil Microsoft igen fik lukket ned for Tay.

Det var angiveligt en fejl fra en Microsoft-ansat, der førte Tay tilbage på Twitter. Sagen nåede sent onsdag hele vejen til tops i Microsoft, hvor topchef Satya Nadella til i hovedtalen på en Microsoft-konference måtte erkende, at Microsoft må begynde forfra med Tay.

Microsoft annoncerede samtidig, at fremtiden netop ligger i sådanne bots, der på forskellig automatisk vis skal løse opgaver for brugerne.