Microsoft выключил бота, которого пользователи превратили в расиста.
24 Мар 2016, 16:10

Microsoft выключил бота, которого пользователи превратили в расиста.

Компания запустила робота под именем Tay в GroupMe и Kik с целью проведения исследований для понимания коммуникации в сетях. Бот может выполнять ряд задач, таких как шутить с пользователями или предлагать комментарий в ответ на картинку. Но она также способна персонализировать свои диалоги, отвечая на вопросы или отправляя пользователям их же сообщения. Пользователи Twitter быстро поняли, что Tay повторит их расистские твиты, прибавив их к своим комментариям и за день превратили бота в почитателя Гитлера. Microsoft уже удалил некоторые самые дискредитирующие твиты, но сайт Socialhax.com разместил у себя скриншоты некоторых из них. Во многих твитах Tay вспоминала Гитлера, отрицала Холокост, поддерживала планы Трампа относительно его политики по отношению к иммигрантам.  

Нова економічна реальність: які тренди визначатимуть ринок у 2025 – досвід TERWIN, Arcelor Mittal, Kvertus, BRAVE1, Starlight media, ГК «Молочний альянс» та 40 провідних управлінців та державних діячів.

11 квітня на Business Wisdom Summit дізнайтеся, як розширювати партнерства, зміцнювати довіру до бренду та виходити на міжнародні ринки. Реальні стратегії та досвід компаній, які вже зробили цей крок.

Забронювати участь

Расскажите друзьям про новость