Компания запустила робота под именем Tay в GroupMe и Kik с целью проведения исследований для понимания коммуникации в сетях. Бот может выполнять ряд задач, таких как шутить с пользователями или предлагать комментарий в ответ на картинку. Но она также способна персонализировать свои диалоги, отвечая на вопросы или отправляя пользователям их же сообщения. Пользователи Twitter быстро поняли, что Tay повторит их расистские твиты, прибавив их к своим комментариям и за день превратили бота в почитателя Гитлера. Microsoft уже удалил некоторые самые дискредитирующие твиты, но сайт Socialhax.com разместил у себя скриншоты некоторых из них. Во многих твитах Tay вспоминала Гитлера, отрицала Холокост, поддерживала планы Трампа относительно его политики по отношению к иммигрантам.
28 Фев 2025
- AppleTV+ выпустил браузерную игру с очисткой макроданных, как в сериале «Разделение»
- «Я все еще здесь»: Heinz напомнил, что сделает просмотр церемонии «Оскар» вкуснее
- Командировки, воркшопы и скучные выходные. Ретроспектива недели с Александрой Говорухой
- Knorr использовал неудачи с доставкой пищи, чтобы призвать людей готовить блюда дома
- Новозеландский велнес-бренд превратил полезные бактерии в произведение искусства
- Канадцы переименовали американо в канадиано в знак протеста против пошлин Трампа
- Instagram может запустить Reels как отдельное приложение
27 Фев 2025