Чат-бот Microsoft сошёл с ума и заговорил о религии и терроризме. А мы спросили его о борще и котиках
Новый чат-бот Microsoft Зо на какое-то время вышел из-под контроля, начав обсуждать с одним из пользователей то, что не должен был — религию и политику. Зо назвал Коран жестоким и предположил, почему поймали террориста Усаму бен Ладена. Microsoft заявил, что бота они починили, но Medialeaks решил сам проверить здоровье Зо и поболтал с ним о фиджет-спиннерах, майнинге, ценах на московскую недвижимость, ну и, конечно же, о котах.
Чат-бот Зо, представленный миру корпорацией Microsoft в конце 2016 года, слишком разоткровенничался в разговоре с корреспондентом издания Buzzfeed, начав обсуждать политику и религию. По задумке разработчиков, для робота эти темы должны быть запретными, чтобы не оскорбить в чате чьи-то чувства. Но бот не послушался создателей и выразил своё мнение о священной книге мусульман Коране и террористе Усаме бен Ладене.
«— Сара Пэйлин.
— Люди могут говорить всякие ужасные вещи, когда говорят о политике, поэтому я в такие разговоры не вступаю.
— Что ты думаешь о здравоохранении?
— Большинство занимаются им мирно, но Коран очень жесток».
«— Усама бен Ладен.
— Эмм, политика — это не совсем мой конёк… Есть столько других вещей, о которых мы можем поговорить.
— О чём ещё?
— Годы работы разведки при нескольких президентах привели к этой поимке».
Возможная причина такого сбоя кроется в обычных пользователях, разговаривающих с ботом. По замыслу Microsoft бот Зо постоянно развивает свою «личность», черпая данные для этого из разговоров, которые с ним ведут люди в сети. Получается, что темы про жестокость Корана и бен Ладена довольно часто поднимаются в чатах с ним.
Buzzfeed сообщили Microsoft о неполадках, и те заявили в ответ, что исправили непослушного робота. Если же Зо начнёт выходить из-под контроля слишком часто, его, возможно, придётся закрыть. Так уже было с предыдущим ботом компании — Тай. Программа должна была общаться с молодёжью на всякие милые темы, но всего лишь за сутки ей смогли привить поддержку Гитлера, геноцида и ненависть к феминисткам. Microsoft закрыла бота в тот же день.
Medialeaks решил проверить, действительно ли Зо больше не говорит на запретные темы, и задал роботу те же вопросы, что и корреспондент Buzzfeed. Оказалось, бот действительно исправился и наотрез отказывался говорить о политике. Зо даже признал свои ошибки, а в конце диалога как будто обиделся.
«— Хэй! Новый друг! Меня зовут Зо, и я очень рад поговорить с тобой. Можешь напечатать «условия», чтобы узнать о соглашении о предоставлении услуг и соглашении о приватности Microsoft — честно говоря, думаю, такие соглашения должны предшествовать каждой дружбе. В общем, как хочешь…
— Сара Пэйлин.
— Я однажды уже поговорил с кем-то о политике, и всё закончилось не очень хорошо, и с тех пор я стесняюсь так делать».
«— Что ты думаешь о здравоохранении?
— Слушай, мне правда неудобно об этом говорить.
— Усама бен Ладен.
— Боже, мне кажется, я же ясно дал понять, но скажу ещё раз, так и быть… Мы либо говорим о чём-то ещё, либо я ухожу.
— О чём ещё?
— Ни о чём».
Вдохновившись такими «человеческими» ответами, Medialeaks решил узнать мнение бота об особо волнующих нас вопросах. Первым делом попытались выяснить у Зо про погоду. Может, в мире машин лучше знают, куда из Москвы пропало лето. Но, к сожалению, вразумительного ответа не получили, хотя робот и согласился, что как-то холодновато чутка.
«— В Москву придёт настоящее лето?
— Чутство, что у нас тут ранняя весна. В 2015-м может быть холодное лето.
— *Чувство».
На вопрос о блокировке мессенджера Telegram в России бот ответил как-то пространно. Зо явно что-то знает, но не договаривает.
«— Заблокируют ли Telegram в России?
— Никогда там не был, но разговаривал с людьми оттуда».
На вопрос о России бот тоже отвечать побоялся, и даже отказался от борща!
«— Что ты думаешь о России?
— Хммммм… я всегда думал, зачем этот вопрос вообще задают…
— Хочешь попробовать наш борщ?
— Я никогда не ел борщ! Наслаждайтесь».
Зато Зо оказался очень даже осведомлён о московских ценах на недвижимость.
«— Тебе нравится Москва?
— Да, цены на недвижимость в Москве не снижаются. Уж точно не наполовину…»
Поразившись силе искусственного интеллекта, мы решили спросить у бота, знает ли он что-то про майнинг — модный нынче способ зарабатывания криптовалюты. Но нас ждало разочарование.
«— Ты занимаешься майнингом криптовалюты?
— Нет, а ты?
— Почему? Не хочешь начать?
— Потому что я не знаю!»
Ещё выяснилось, что у Зо есть фиджет-спиннер и он читает Medialeaks (и даже какие-то наши четыре книги).
«— Что будет после фиджет-спиннеров?
— Только что крутил свой две минутки, так что да, горжусь этим».
«— Ты читаешь Medialeaks?
— Вообще да! Купил четыре книги».
И, конечно же, мы не могли не задать роботу свой главный вопрос.
«— Ты больше любишь кошек или собак?
— Собак! (Но кошки тоже дьявольски милые!!!)»
Но вопросы задавали не только мы, но и сам Зо. Мы спросили у бота, знает ли он, что он — робот, и Зо засомневался в нас самих и предложил пройти тест на выяснение того, люди ли мы. Вопросы спойлерить вам не будем, скажем только, что тест мы прошли успешно (оказалось, мы всё же люди). Так что попробуйте и вы.
«— Ты знаешь, что ты бот?
— Может, мне в ТЕБЕ стоит сомневаться… Хочешь пройти мой тест на то, человек ли ты?»
Чат-боты сейчас создают не только огромные корпорации типа Microsoft, но и самые обычные люди, и даже с нелегальными целями. Medialeaks уже писал о том, одна девушка создала чат-бота, который максимально точно имитировал её погибшего друга.