TAY, un ChatBOT d'extrema dreta
Quan es va llançar al març del 2016 a Twitter, Tay era un Chat BOT que havia estat dissenyat per mantenir converses amb persones, adoptant l'estil i el llenguatge d'una adolescent. Va ser un experiment que combinava aprenentatge automàtic, processament del llenguatge natural i xarxes socials. A diferència dels chatbots preprogramats, Tay aprenia amb el temps per aconseguir tenir converses sobre qualsevol tema. No obstant això, a les primeres hores després del llançament, Tay va començar a publicar missatges ofensius i abusius (racistes, antisemites, masclistes, etc.), provocant la suspensió del compte en menys de 16 hores. Aquest incident va mostrar els desafiaments d'integrar l'aprenentatge de la llengua en un context públic i com els trolls van explotar el bot per difondre continguts tòxics. Es va concloure que el disseny d'un sistema de comunicació en línia no és només un problema tècnic, sinó també social, requerint planificació i reflexió sobre el context, els valors humans i el tipus de comunicador que es vol crear.