Lisanne Beijen
Lisanne Beijen | LinkedIn Tech 25 nov 2017

Dit werd ‘m niet: Microsoft’s onbeschofte en racistische chatbot Tay, auch..

Aan een revolutionaire innovatie gaan tergend lange onderzoeken, testfases, en bijzonder uitmuntende presentaties vooraf. Des te pijnlijker is het als jouw uitvinding helemaal niet zo revolutionair blijkt te zijn. In de rubriek ‘Dit werd ‘m niet’ lichten we de mooiste flops uit de techgeschiedenis uit. Deze week de chatbot van Microsoft genaamd Tay.

Microsoft gaat de mist in met AI-project

In maart 2016 lanceerde Microsoft een AI chatbot genaamd Tay. Deze chatbot reageerde op tweets en chats via GroupMe en Kik. De Chatbot werd sneller uit de lucht gehaald dan je ‘Tay’ kunt zeggen, en niet zonder reden: hij plaatste racistische en beledigende opmerkingen.

De chatbot was natuurlijk niet ingesteld om racistisch te zijn, maar doordat hij gebruik maakte van kunstmatige intelligentie leerde hij van de personen waarmee hij interacteerde online. We weten allemaal hoe het internet is, en met name hoe mensen op het internet zijn, dus Tay was al snel aangeleerd hoe het racistische en ongepaste opmerkingen moest plaatsen. Microsoft, you should have known better..

Microsoft

That escalated quickly..

Tay werd geïntroduceerd door Microsoft Technology and Research en door een team van Bing. De chatbot was een onderdeel van een AI-project om onderzoek te doen naar het begrijpen van gesprekken. Microsoft’s projectje kon een aantal taken uitvoeren, waaronder het vertellen van grappen en het plaatsen van opmerkingen onder foto’s. Daarnaast moest het ook vragen kunnen beantwoorden, zoals gebruikelijk is voor een chatbot, en het spiegelen van statements van andere Twittergebruikers.

Twittergebruikers kwamen er al snel achter dat wanneer ze wat racistische opmerkingen of andere foute opmerkingen naar Tay stuurden, ze vaak een minimaal net zo foute opmerking terug kregen. Omdat de teksten van de chatbot grotendeels werden voorbereid door comedians waren de opmerkingen vaak ook nog erg nonchalant, wat het er bepaald niet beter op maakte.

Niet geheel onverwacht werd Tay weer snel offline gehaald door Microsoft. Het softwarebedrijf zei hierop dat de AI-chatbot een machine learning project was, ontworpen voor het interacteren met mensen. Alleen aan dat laatste moest dus nog het een en ander verbeterd worden.. Gelukkig maakt Microsoft meer toppers dan missers: daar is de Surface Book 2 een goed voorbeeld van.

Reageer op artikel:
Dit werd ‘m niet: Microsoft’s onbeschofte en racistische chatbot Tay, auch..
Sluiten