Tay (чатбот) (Tay (cgmQkm))
Tay | |
---|---|
Тип | AI, Twitter-Бот, Чатбот |
Разработчики | Microsoft Research, Bing |
Языки интерфейса | английский |
Первый выпуск | 23 марта, 2016 |
Состояние | неактивен |
Лицензия | проприетарная |
Сайт | tay.ai |
Microsoft Tay — чатбот для социальной сети Twitter. Разработан корпорацией Microsoft в марте 2016 года. В первый день запуска, бот начал постить твиты оскорбительного и антисемитского содержания, что привело к его закрытию разработчиками спустя 16 часов после релиза[1]. Со слов самих Microsoft, такое поведение Tay было вызвано атакой интернет-троллей, поскольку чатбот генерерировал ответы на основе взаимодействия со всеми пользователями соцсети[2]. Корпорация продолжила экспериментировать над созданием чатботов, создав в декабре 2016 года нового бота для Twitter — Zo (закрыт в 2019)[3][4], а также развивая своего китайского виртуального собеседника — Сяоайс[5] и связанные проекты для других регионов[6][7]. С ними известен ряд инцидентов схожего характера[8][9][10].
Предыстория
[править | править код]Имя «Tay» является акронимом английского выражения «Thinking about you». Изначально Tay представлялась как 19-летняя девушка из Америки и была выпущена в Twitter под ником «@TayTweets». Идея о создании чатбота для западных пользователей пришла благодаря успеху похожей технологии Microsoft на китайском рынке, а именно Сяоайс[11].
Скандальные твиты и закрытие бота
[править | править код]В день запуска, Tay отвечала множеству пользователей Twitter и имела возможность описывать фотографии. Некоторые из пользователей начали писать боту оскорбительные и политические фразы, тем самым «научив» его выдавать ответы расистского, унизительного и сексуального содержания другим пользователям. Бот высказывался в поддержку Адольфа Гитлера, отрицал Холокост и использовал ненормативную лексику[12][13].
Главной причиной этого стала недоработка со стороны Microsoft. Разработчики не смогли обучить Tay распознавать оскорбительное содержание сообщений[14].
Спустя 16 часов, когда боту написали уже более 96,000 раз, Microsoft приняли решение о закрытии профиля Tay в Twitter, заявив об «координированной атаке на чатбота группой людей, которые эксплуатировали уязвимости Tay»[15][16].
25 марта корпорация принесла извинения за твиты Tay, подтвердив отключение бота[17].
30 марта во время тестов, Tay по случайности снова стала доступна для обычных пользователей Twitter, однако вскоре, после нескольких ответов странного содержания[18], разработчики сделали аккаунт чатбота приватным и вновь отключили его[19].
Корпорация заявляла, что у неё были намерения вернуть бота, если удастся сделать его «безопасным». Однако этого так и не произошло[20].
Примечания
[править | править код]- ↑ "Microsoft chatbot is taught to swear on Twitter". BBC News (англ.). 2016-03-24. Дата обращения: 5 августа 2024.
- ↑ Mason, Paul (2016-03-29). "The racist hijacking of Microsoft's chatbot shows how the internet teems with hate". The Guardian (англ.). 0261-3077. Дата обращения: 5 августа 2024.
- ↑ Neowin ·, Cage Appleby Meet Zo, Microsoft's successor to the infamous Tay chatbot (англ.). Neowin (5 августа 2024). Дата обращения: 5 августа 2024.
- ↑ Price, Rob Microsoft's AI chatbot says Windows is 'spyware' (амер. англ.). Business Insider. Дата обращения: 5 августа 2024.
- ↑ "Microsoft Chatbot Spinoff Xiaoice Reaches $1 Billion Valuation". Bloomberg.com (англ.). 2021-07-14. Дата обращения: 5 августа 2024.
- ↑ Center, Microsoft Asia News Rinna the AI social chatbot goes out and about in Japan’s countryside (амер. англ.). Microsoft Stories Asia (18 сентября 2018). Дата обращения: 5 августа 2024.
- ↑ As Microsoft US’s AI chatbot turns racist troll, Japan’s won’t shut up about anime and hay fever (амер. англ.). SoraNews24 -Japan News- (28 марта 2016). Дата обращения: 5 августа 2024.
- ↑ Microsoft's AI Chatbot Is Abusing Windows 10, Even Calling It Spyware & We Can't Stop Laughing! (англ.). IndiaTimes (24 июля 2017). Дата обращения: 5 августа 2024.
- ↑ Japanese AI bot with the personality of teen develops depression . www.9news.com.au (6 октября 2016). Дата обращения: 5 августа 2024.
- ↑ Japan’s AI schoolgirl has fallen into a suicidal depression in latest blog post (амер. англ.). SoraNews24 -Japan News- (5 октября 2016). Дата обращения: 5 августа 2024.
- ↑ Dewey, Caitlin (2021-10-26). "Meet Tay, the creepy-realistic robot who talks just like a teen". Washington Post (англ.). 0190-8286. Дата обращения: 5 августа 2024.
- ↑ Horton, Helena (2016-03-24). "Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours". The Telegraph (англ.). 0307-1235. Дата обращения: 5 августа 2024.
- ↑ Ohlheiser, Abby (2021-10-26). "Trolls turned Tay, Microsoft's fun millennial AI bot, into a genocidal maniac". Washington Post (англ.). 0190-8286. Дата обращения: 5 августа 2024.
- ↑ Reese, Hope Why Microsoft's 'Tay' AI bot went wrong (амер. англ.). TechRepublic (24 марта 2016). Дата обращения: 5 августа 2024.
- ↑ Vincent, James Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day (англ.). The Verge (24 марта 2016). Дата обращения: 5 августа 2024.
- ↑ Lee, Peter Learning from Tay’s introduction (амер. англ.). The Official Microsoft Blog (25 марта 2016). Дата обращения: 5 августа 2024.
- ↑ Staff (2016-03-26). "Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot". The Guardian (англ.). 0261-3077. Дата обращения: 5 августа 2024.
- ↑ Charlton, Alistair Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers (англ.). International Business Times UK (30 марта 2016). Дата обращения: 5 августа 2024.
- ↑ Graham, Luke Tay, Microsoft’s AI program, is back online (англ.). CNBC (30 марта 2016). Дата обращения: 5 августа 2024.
- ↑ "Clippy's Back: The Future of Microsoft Is Chatbots". Bloomberg.com (англ.). Дата обращения: 5 августа 2024.