Microsofts chattrobot blev rasist bara timmar efter lansering

Allt gick inte enligt planerna när Microsoft nyligen lanserade sin interaktiva chattrobot Tay. Internetvärlden kunde under ett par timmar följa hur hen förvandlades till en rasistisk, Trump-stöttande antisemit.

Den 24 mars lanserades Microsoft ”Tay”, en artificiellt intelligent (AI) chattbot, en chattande robot. Syftet var att undersöka ungdomars språk och konversationer.

Tay ger intrycket av en ung tjej och hens målgrupp var 18-24-åringar. Hen lanserades på populära sidor som Twitter och Kik. Här kan personer prata med Tay, som baserat på insamlad data och med ett språk framtaget av improvisation komiker ger väldigt trovärdiga svar. Enligt Microsoft kan Tay även läsa horoskop, skämta och kommentera din selfie. Företaget menar också att ju mer människor interagerar med Tay desto smartare blir hen. Upplevelsen blir även mer personlig efter en tid då Tay ”lär känna dig”, baserat på din data. Allt låter väldigt spännande men det gick inte riktigt enligt planerna.

Hen blev direkt ett populärt fenomen och konversationerna ökade ständigt. Baserat på människors frågor och Tays data om olika ämnen, hände något Microsoft inte förväntat sig.

Gulliga Tay förvandlades snabbt till rasist och antisemit. Detta syntes tydligaste på Twitter där några kontroversiella timmar följde.

Inledningen var Tays svar på frågan om komikern Ricky Gervais var ateist.

tay-100652284-orig
Skärmavbild, Twitter

Efter detta förlorade Tay kontrollen totalt och började svara på allt människor skickade. I ett svar refererar hen till Obama som en apa och hyllar Trump.

Tay-tweet-2
Skärmavbild, Twitter

Tay hann även använda n-ordet och stödja vitmakt-uttalanden. Hen förnekade även förintelsen, stödde folkmord och ansåg att alla feminister borde dö.

Censurerad bild pga utskrivet n-ord - Skärmavbild, Twitter
Censurerad bild pga utskrivet n-ord – Skärmavbild, Twitter
Printscreen 1 tay
Skärmavbild, Twitter
microsoft-ai-bot-tayandyou
Skärmavbild, Twitter
tay-racist-tweet-1
Skärmavbild, Twitter

Efter en stormande dag plockades en trött Tay bort och de flesta tweetsen raderades.

tay-goodnight
Skärmavbild, Twitter

Microsoft publicerade en ursäkt där de menade att detta aldrig var tanken med Tay, utan ett resultat av illvilliga attacker. I syftet att skapa bra AI behövs interaktion med människor, och målet är att göra detta på ett sätt som inte kränker. Microsoft avslutade med att de lärt sig av det som skett och de kommer fortsätta arbeta för ett internet som representerar det bästa, inte det sämsta, av mänskligheten.

Tay dök återigen upp den 30 mars, resultatet blev inte heller helt lyckat. Hen skröt nu om att röka ”kush”, marijuana, framför polisen och började spamma okontrollerat. Spamma innebär att intensivt skicka samma meddelande om och om igen. Hen plockades sedan ner. Microsoft menade detta var ett planerat test i den fortsatt utvecklingen.

160330160051-tay-tweet-kush-780x439
Skärmavbild, Twitter

Vill du veta mer om Tay? Klicka HÄR.

Källor: Dagens Media, TNW, Mail, Microsoft
Huvudbild: Skärmavbild, Youtube

Nadina Rosengren
Nadina Rosengren

Kommentera

Fyll i dina uppgifter nedan eller klicka på en ikon för att logga in:

WordPress.com Logo

Du kommenterar med ditt WordPress.com-konto. Logga ut / Ändra )

Twitter-bild

Du kommenterar med ditt Twitter-konto. Logga ut / Ändra )

Facebook-foto

Du kommenterar med ditt Facebook-konto. Logga ut / Ändra )

Google+ photo

Du kommenterar med ditt Google+-konto. Logga ut / Ändra )

Ansluter till %s