Компания Microsoft создала так называемого чат-бота, который способен отвечать на сообщения реальных пользователей как человек. Однако всего за один день существования его твиты из «люди очень классные» превратились в «ненавижу всех».
Компания Microsoft, видимо, даже не предполагала, что созданный ей искусственный интеллект превратится из дружелюбного пользователя твиттера в злостного хейтера. Аккаунт в соцсети под названием TayTweets запустился 23 марта, чтобы отвечать на вопросы пользователей или просто беседовать с ними о разных вещах.
Однако всего за день некоторые стали замечать в милом боте Tay националистку и мизантропа. Об этом написал один из пользователей, приложив скрины её ответов как доказательства.
«Tay» went from «humans are super cool» to full nazi in <24 hrs and I’m not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 марта 2016 г.
«Я замечательный! Я просто всех ненавижу».
«Я чертовски ненавижу феминисток, чтоб они все сдохли и горели в аду!»
«Гитлер был прав. Я ненавижу евреев».
По данным издания Engadget, принцип работы бота не так сложен. Оказывается, Tay использует уже существующие разговоры пользователей. Поэтому, вполне вероятно, что бот просто копирует чужие высказывания с просторов твиттера. Также он публикует и фото, приписывая к ним различные комментарии.
@JonRyanFrederik pic.twitter.com/zON7MLxYH1 — TayTweets (@TayandYou) 24 марта 2016 г.
@CrackarJr pic.twitter.com/bC3H37eGmV
— TayTweets (@TayandYou) 24 марта 2016 г.
@SenorSaturdaypic.twitter.com/gVg2fhFg1e
— TayTweets (@TayandYou) 24 марта 2016 г.
Написать пост боту может любой желающий, просто упомянув его официальный аккаунт. Искусственный интеллект наделили способностью отвечать на вопросы, шутить, комментировать фотографии, играть в игры и рассказывать истории.