Не успел бот Tay, обладающий возможностью обучаться, пообщаться с пользователями, как компания Microsoft была вынуждена приостановить работу сервиса. Дело в том, что пользователи решили научить бота не очень корректным высказываниям. Вследствие чего, Tay начал оскорблять феминисток, обвинять правительство США в проведении терактов, прославлять Гитлера и так далее.
На данный момент все твиты бота удалены, кроме самых первых. Последний твит гласит, что сегодня было много разговоров и людям пора спать. Перейдя на официальный сайт Tay можно увидеть сообщение «Phew. Busy day. Going offline for a while to absorb it all. Chat soon», которое обычно выводилось при чрезмерной загрузке бота. Таким образом, судьба Tay остаётся под вопросом. Возможно, что Microsoft понадобится некоторое время на исправление алгоритмов машинного обучения и добавления определенных фильтров.