Компания запустила робота под именем Tay в GroupMe и Kik с целью проведения исследований для понимания коммуникации в сетях. Бот может выполнять ряд задач, таких как шутить с пользователями или предлагать комментарий в ответ на картинку. Но она также способна персонализировать свои диалоги, отвечая на вопросы или отправляя пользователям их же сообщения. Пользователи Twitter быстро поняли, что Tay повторит их расистские твиты, прибавив их к своим комментариям и за день превратили бота в почитателя Гитлера. Microsoft уже удалил некоторые самые дискредитирующие твиты, но сайт Socialhax.com разместил у себя скриншоты некоторых из них. Во многих твитах Tay вспоминала Гитлера, отрицала Холокост, поддерживала планы Трампа относительно его политики по отношению к иммигрантам.
23 Янв 2025
- Косметический бренд выпустил рекламу, созданную из лобковых волос
- Зоопарк Бронкса предложил назвать таракана именем бывшего
- PR-агентство Karla Otto назвало инфлюэнсера 2024 года
- Calvin Klein, Gucci и другие: 5 культовых рекламных роликов Дэвида Линча
- Harlem Shake и Mannequin Challenge: IKEA воспроизвела известные интернет-флешмобы
- Жуткое солнце обожгло лицо в ролике бренда SPF-средств
- Вишнево-красный и масляно-желтый: цвета 2025 года по версии Pinterest
- Instagram создал собственное приложение для редактирования видео