W marcu 2016 r. Microsoft zaliczył spektakularną wpadkę. Po zaledwie 16 godzinach funkcjonowania musiał wyłączyć swojego chatbota o nazwie Tay mającego symulować posty nastolatki na Twitterze. Tay zaczęła podważać istnienie Holocaustu oraz pozwalała sobie na komentarze nazywające feminizm rakiem. Co więcej, pojawiły się także rasistowskie wpisy skierowane przeciw obywatelom Meksyku i Żydom oraz takie, w których gloryfikowała Hitlera. Tego było za wiele. Microsoft został zmuszony do uciszenia niesfornego robota oraz wystosowania przeprosin. Czy powinno się jednak poprzestać na przeprosinach? Czy zostało popełnione jakieś przestępstwo?