Компания запустила робота под именем Tay в GroupMe и Kik с целью проведения исследований для понимания коммуникации в сетях. Бот может выполнять ряд задач, таких как шутить с пользователями или предлагать комментарий в ответ на картинку. Но она также способна персонализировать свои диалоги, отвечая на вопросы или отправляя пользователям их же сообщения. Пользователи Twitter быстро поняли, что Tay повторит их расистские твиты, прибавив их к своим комментариям и за день превратили бота в почитателя Гитлера. Microsoft уже удалил некоторые самые дискредитирующие твиты, но сайт Socialhax.com разместил у себя скриншоты некоторых из них. Во многих твитах Tay вспоминала Гитлера, отрицала Холокост, поддерживала планы Трампа относительно его политики по отношению к иммигрантам.
26 Дек 2024
- Американский рэпер и солдаты из «Игры в кальмара» устроили праздничную вечеринку в ролике Johnnie Walker и Uber Eats
- Палатка, кроссовки и гитара: Toyota представила коллекцию футуристических вещей
- Фотографии из Украины вошли в подборку снимков, которые определили 2024 год
- UGC и многоканальность: тренды и полезные ИИ-инструменты диджитал-маркетинга в 2025 году
- Mattel представил праздничную куклу Барби к Китайскому Новому году
- Зендея снялась для кампании совместной коллекции Louis Vuitton и Такаси Мураками
- Скульптуры малышей-основателей Киева нарядились в праздничные костюмы
- Для собак создали праздничный лотерейный билет с призом в размере 30 миллионов евро