Компания запустила робота под именем Tay в GroupMe и Kik с целью проведения исследований для понимания коммуникации в сетях. Бот может выполнять ряд задач, таких как шутить с пользователями или предлагать комментарий в ответ на картинку. Но она также способна персонализировать свои диалоги, отвечая на вопросы или отправляя пользователям их же сообщения. Пользователи Twitter быстро поняли, что Tay повторит их расистские твиты, прибавив их к своим комментариям и за день превратили бота в почитателя Гитлера. Microsoft уже удалил некоторые самые дискредитирующие твиты, но сайт Socialhax.com разместил у себя скриншоты некоторых из них. Во многих твитах Tay вспоминала Гитлера, отрицала Холокост, поддерживала планы Трампа относительно его политики по отношению к иммигрантам.
14 Фев 2025
13 Фев 2025
- AXE показал ревность ребенка, плюшевого мишку и собаки из-за сладкого аромата дезодоранта
- Выступление Кендрика Ламара на Супербоуле увеличило спрос на кроссовки Nike
- «Ни слова о нас без нас»: как говорить об инклюзивности и инвалидности в 2025 году
- Ссылки на несуществующие страницы превратили в профили успешных женщин-ученых
- Domino’s выпустил духи с ароматом пиццы пеперони
- McDonald’s пригласил британцев сделать заказ, как рэпер Stormzy
- Ким Кардашьян стала феей-крестной ягодиц в ролике SKIMS