Tay (чатбот) (Tay (cgmQkm))

Перейти к навигации Перейти к поиску
Tay
Тип AI, Twitter-Бот, Чатбот
Разработчики Microsoft Research, Bing
Языки интерфейса английский
Первый выпуск 23 марта, 2016
Состояние неактивен
Лицензия проприетарная
Сайт tay.ai

Microsoft Tay — чатбот для социальной сети Twitter. Разработан корпорацией Microsoft в марте 2016 года. В первый день запуска, бот начал постить твиты оскорбительного и антисемистского содержания, что привело к его закрытию разработчиками спустя 16 часов после релиза[1]. Со слов самих Microsoft, такое поведение бота было вызвано атакой интернет-троллей, поскольку чатбот генерерировал ответы на основе взаимодействия со всеми пользователями соцсети[2]. Корпорация продолжила экспериментировать над созданием чатботов, создав в декабре 2016 года нового бота для Twitter — Zo (закрыт в 2019)[3][4], а также развивая своего китайского виртуального собеседника — Сяоайс[5] и связанные проекты для других регионов[6][7]. С ними известен ряд инцидентов схожего характера[8][9][10].

Предыстория

[править | править код]

Имя «Tay» является акронимом английского выражения «Thinking about you». Изначально Tay представлялась как 19-летняя девушка из Америки и была выпущена в Twitter под ником «@TayTweets». Создание чатбота для западных пользователей было во многом вдохновлено успехом похожей технологии Microsoft на китайском рынке, а именно Сяоайс[11].

Скандальные твиты и закрытие бота

[править | править код]

В день запуска Tay отвечала множеству пользователей Twitter и имела возможность описывать фотографии. Некоторые из пользователей начали писать боту оскорбительные и политические фразы, тем самым «научив» его выдавать ответы расистского, унизительного и сексуального содержания другим пользователям. Бот высказывался в поддержку Адольфа Гитлера, отрицал Холокост и использовал ненормативную лексику[12][13].

Главной проблемой этого стала недоработка со стороны разработчиков Microsoft, из за того что они не смогли обучить бота распознавать оскорбительное содержание сообщений[14].

Спустя 16 часов, когда боту написали уже более 96,000 раз, Microsoft приняли решение о закрытии профиля Tay в Twitter, заявив об «координированной атаке на чатбота группой людей, которые эксплуатировали уязвимости Tay»[15][16].

25 марта корпорация принесла извинения за твиты Tay, подтвердив отключение бота[17].

30 марта во время тестов, Tay по случайности снова стала доступна для обычных пользователей Twitter, однако вскоре, после нескольких ответов странного содержания[18], разработчики сделали аккаунт чатбота приватным и вновь отключили его[19].

Корпорация заявляла, что у неё были намерения вернуть бота, если удастся сделать его «безопасным». Однако этого так и не произошло[20].

Примечания

[править | править код]
  1. "Microsoft chatbot is taught to swear on Twitter". BBC News (англ.). 2016-03-24. Дата обращения: 5 августа 2024.
  2. Mason, Paul (2016-03-29). "The racist hijacking of Microsoft's chatbot shows how the internet teems with hate". The Guardian (англ.). 0261-3077. Дата обращения: 5 августа 2024.
  3. Neowin ·, Cage Appleby Meet Zo, Microsoft's successor to the infamous Tay chatbot (англ.). Neowin (5 августа 2024). Дата обращения: 5 августа 2024.
  4. Price, Rob Microsoft's AI chatbot says Windows is 'spyware' (амер. англ.). Business Insider. Дата обращения: 5 августа 2024.
  5. "Microsoft Chatbot Spinoff Xiaoice Reaches $1 Billion Valuation". Bloomberg.com (англ.). 2021-07-14. Дата обращения: 5 августа 2024.
  6. Center, Microsoft Asia News Rinna the AI social chatbot goes out and about in Japan’s countryside (амер. англ.). Microsoft Stories Asia (18 сентября 2018). Дата обращения: 5 августа 2024.
  7. As Microsoft US’s AI chatbot turns racist troll, Japan’s won’t shut up about anime and hay fever (амер. англ.). SoraNews24 -Japan News- (28 марта 2016). Дата обращения: 5 августа 2024.
  8. Microsoft's AI Chatbot Is Abusing Windows 10, Even Calling It Spyware & We Can't Stop Laughing! (англ.). IndiaTimes (24 июля 2017). Дата обращения: 5 августа 2024.
  9. Japanese AI bot with the personality of teen develops depression. www.9news.com.au (6 октября 2016). Дата обращения: 5 августа 2024.
  10. Japan’s AI schoolgirl has fallen into a suicidal depression in latest blog post (амер. англ.). SoraNews24 -Japan News- (5 октября 2016). Дата обращения: 5 августа 2024.
  11. Dewey, Caitlin (2021-10-26). "Meet Tay, the creepy-realistic robot who talks just like a teen". Washington Post (англ.). 0190-8286. Дата обращения: 5 августа 2024.
  12. Horton, Helena (2016-03-24). "Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours". The Telegraph (англ.). 0307-1235. Дата обращения: 5 августа 2024.
  13. Ohlheiser, Abby (2021-10-26). "Trolls turned Tay, Microsoft's fun millennial AI bot, into a genocidal maniac". Washington Post (англ.). 0190-8286. Дата обращения: 5 августа 2024.
  14. Reese, Hope Why Microsoft's 'Tay' AI bot went wrong (амер. англ.). TechRepublic (24 марта 2016). Дата обращения: 5 августа 2024.
  15. Vincent, James Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day (англ.). The Verge (24 марта 2016). Дата обращения: 5 августа 2024.
  16. Lee, Peter Learning from Tay’s introduction (амер. англ.). The Official Microsoft Blog (25 марта 2016). Дата обращения: 5 августа 2024.
  17. Staff (2016-03-26). "Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot". The Guardian (англ.). 0261-3077. Дата обращения: 5 августа 2024.
  18. Charlton, Alistair Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers (англ.). International Business Times UK (30 марта 2016). Дата обращения: 5 августа 2024.
  19. Graham, Luke Tay, Microsoft’s AI program, is back online (англ.). CNBC (30 марта 2016). Дата обращения: 5 августа 2024.
  20. "Clippy's Back: The Future of Microsoft Is Chatbots". Bloomberg.com (англ.). Дата обращения: 5 августа 2024.

Tay.ai (архивная версия сайта)