Перейти к содержанию

Tay (чатбот)

Эта статья находится на начальном уровне проработки, в одной из её версий выборочно используется текст из источника, распространяемого под свободной лицензией
Материал из энциклопедии Руниверсалис
Tay
Тип AI, Twitter-Бот, Чатбот
Разработчик Microsoft Research, Bing
Языки интерфейса английский
Первый выпуск 23 марта, 2016
Состояние неактивен
Лицензия проприетарная
Сайт tay.ai

Microsoft Tay — чатбот для социальной сети Twitter. Разработан корпорацией Microsoft в марте 2016 года. В первый день запуска, бот начал постить твиты оскорбительного и антисемитского содержания, что привело к его закрытию разработчиками спустя 16 часов после релиза[1]. Со слов самих Microsoft, такое поведение Tay было вызвано атакой интернет-троллей, поскольку чатбот генерерировал ответы на основе взаимодействия со всеми пользователями соцсети[2]. Корпорация продолжила экспериментировать над созданием чатботов, создав в декабре 2016 года нового бота для Twitter — Zo (закрыт в 2019)[3][4], а также развивая своего китайского виртуального собеседника — Сяоайс[5] и связанные проекты для других регионов[6][7]. С ними известен ряд инцидентов схожего характера[8][9][10].

Предыстория

Имя «Tay» является акронимом английского выражения «Thinking about you». Изначально Tay представлялась как 19-летняя девушка из Америки и была выпущена в Twitter под ником «@TayTweets». Идея о создании чатбота для западных пользователей пришла благодаря успеху похожей технологии Microsoft на китайском рынке, а именно Сяоайс[11].

Скандальные твиты и закрытие бота

В день запуска, Tay отвечала множеству пользователей Twitter и имела возможность описывать фотографии. Некоторые из пользователей начали писать боту оскорбительные и политические фразы, тем самым «научив» его выдавать ответы расистского, унизительного и сексуального содержания другим пользователям. Бот высказывался в поддержку Адольфа Гитлера, отрицал Холокост и использовал ненормативную лексику[12][13].

Главной причиной этого стала недоработка со стороны Microsoft. Разработчики не смогли обучить Tay распознавать оскорбительное содержание сообщений[14].

Спустя 16 часов, когда боту написали уже более 96,000 раз, Microsoft приняли решение о закрытии профиля Tay в Twitter, заявив об «координированной атаке на чатбота группой людей, которые эксплуатировали уязвимости Tay»[15][16].

25 марта корпорация принесла извинения за твиты Tay, подтвердив отключение бота[17].

30 марта во время тестов, Tay по случайности снова стала доступна для обычных пользователей Twitter, однако вскоре, после нескольких ответов странного содержания[18], разработчики сделали аккаунт чатбота приватным и вновь отключили его[19].

Корпорация заявляла, что у неё были намерения вернуть бота, если удастся сделать его «безопасным». Однако этого так и не произошло[20].

Примечания

  1. Microsoft chatbot is taught to swear on Twitter (англ.), BBC News (24 марта 2016).
  2. Mason, Paul. The racist hijacking of Microsoft’s chatbot shows how the internet teems with hate (англ.), The Guardian (29 марта 2016).
  3. Neowin ·, Cage Appleby Meet Zo, Microsoft's successor to the infamous Tay chatbot (англ.). Neowin (5 августа 2024). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
  4. Price, Rob Microsoft's AI chatbot says Windows is 'spyware' (англ.) ?. Business Insider. Дата обращения: 5 августа 2024. Архивировано 1 августа 2017 года.
  5. Microsoft Chatbot Spinoff Xiaoice Reaches $1 Billion Valuation (англ.), Bloomberg.com (14 July 2021).
  6. Center, Microsoft Asia News Rinna the AI social chatbot goes out and about in Japan’s countryside (англ.) ?. Microsoft Stories Asia (18 сентября 2018). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
  7. As Microsoft US’s AI chatbot turns racist troll, Japan’s won’t shut up about anime and hay fever (англ.) ?. SoraNews24 -Japan News- (28 марта 2016). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
  8. Microsoft's AI Chatbot Is Abusing Windows 10, Even Calling It Spyware & We Can't Stop Laughing! (неопр.). IndiaTimes (24 июля 2017). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
  9. Japanese AI bot with the personality of teen develops depression. www.9news.com.au (6 октября 2016). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
  10. Japan’s AI schoolgirl has fallen into a suicidal depression in latest blog post (англ.) ?. SoraNews24 -Japan News- (5 октября 2016). Дата обращения: 5 августа 2024.
  11. Dewey, Caitlin. Meet Tay, the creepy-realistic robot who talks just like a teen (англ.), Washington Post (26 октября 2021).
  12. Horton, Helena. Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours (англ.), The Telegraph (24 марта 2016).
  13. Ohlheiser, Abby. Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac (англ.), Washington Post (26 октября 2021).
  14. Reese, Hope Why Microsoft's 'Tay' AI bot went wrong (англ.) ?. TechRepublic (24 марта 2016). Дата обращения: 5 августа 2024. Архивировано 5 августа 2024 года.
  15. Vincent, James Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day (англ.). The Verge (24 марта 2016). Дата обращения: 5 августа 2024. Архивировано 23 мая 2016 года.
  16. Lee, Peter Learning from Tay’s introduction (англ.) ?. The Official Microsoft Blog (25 марта 2016). Дата обращения: 5 августа 2024.
  17. Staff. Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot (англ.), The Guardian (26 марта 2016).
  18. Charlton, Alistair Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers (англ.). International Business Times UK (30 марта 2016). Дата обращения: 5 августа 2024. Архивировано 11 сентября 2021 года.
  19. Graham, Luke Tay, Microsoft’s AI program, is back online (англ.). CNBC (30 марта 2016). Дата обращения: 5 августа 2024. Архивировано 20 сентября 2017 года.
  20. Clippy’s Back: The Future of Microsoft Is Chatbots (англ.), Bloomberg.com.

Ссылки

Tay.ai (архивная версия сайта)