Компания запустила робота под именем Tay в GroupMe и Kik с целью проведения исследований для понимания коммуникации в сетях. Бот может выполнять ряд задач, таких как шутить с пользователями или предлагать комментарий в ответ на картинку. Но она также способна персонализировать свои диалоги, отвечая на вопросы или отправляя пользователям их же сообщения. Пользователи Twitter быстро поняли, что Tay повторит их расистские твиты, прибавив их к своим комментариям и за день превратили бота в почитателя Гитлера. Microsoft уже удалил некоторые самые дискредитирующие твиты, но сайт Socialhax.com разместил у себя скриншоты некоторых из них. Во многих твитах Tay вспоминала Гитлера, отрицала Холокост, поддерживала планы Трампа относительно его политики по отношению к иммигрантам.
Новое видео
05 Июл 2024
- 86% переселенцев имеют уровень медиаграмотности выше среднего: исследование
- Киевский областной Центр подготовки населения к нацсопротивлению получил бренд-айдентику
- Бары и рестораны Нидерландов добавили в свое меню солнцезащитный крем
- Starbucks представил серию напитков, вдохновленных сериалом «Дом дракона»
- Фут-фетиш модель создала вино со «вкусом» своих ног
- Овцы в броне и дракон на Эмпайр-стейт-билдинг: маркетинг 2-го сезона «Дом дракона» намеренно обманывал фанатов
- Кот Ларри оставил Риши Сунаку прощальный «подарок» в обуви
- Tito’s поддержал решение американцев не уезжать этим летом в отпуск