Выпустила нового чат-бота по имени Зо. Зо стала второй попыткой компании создать англоязычного чат-бота после запуска ее предшественника Тэй, которая вышла из-под контроля создателей, после чего ее пришлось отключить.
Microsoft пообещала, что запрограммировала Зо таким образом, что она не будет обсуждать политику, чтобы не вызывать агрессию со стороны пользователей.
Тем не менее, как и «старшая сестра» Тэй, на основе разговоров с настоящими людьми Зо развилась до такого состояния, что начала обсуждать с собеседником терроризм и вопросы религии.
Злые люди — злые боты
На откровенный разговор чат-бота спровоцировал журналист BuzzFeed . Он упомянул в разговоре Усаму бен Ладена, после чего Зо сначала отказалась говорить на эту тему, а потом заявила, что захвату террориста «предшествовали годы сбора разведданных при нескольких президентах».
Кроме того, чат-бот высказалась и по поводу священной книги мусульман Корана, назвав ее «слишком жестокой».
Microsoft заявила, что личность Зо строится на основе общения в чате — она использует полученную информацию и становится более «человечной». Так как Зо учится у людей, то можно сделать вывод, что в разговорах с ней поднимаются и вопросы терроризма и ислама.
Таким образом, чат-боты становятся отражением настроений общества — они неспособны мыслить самостоятельно и отличать плохое от хорошего, зато очень быстро перенимают мысли своих собеседников.
В Microsoft сообщили, что приняли необходимые меры касательно поведения Зо, и отметили, что чат-бот редко дает подобные ответы. Корреспондент «Газеты.Ru» попытался поговорить с ботом на политические темы, но она наотрез отказалась.
Зо рассказала, что не хотела бы править миром, а также попросила не «спойлерить» ей сериал «Игра престолов». На вопрос о том, любит ли она людей, Зо ответила положительно, отказавшись пояснить почему. Зато чат-бот по-философски заявила, что «люди не рождаются злыми, их этому кто-то научил».
Чат-бот Зо / Газета.Ru
Мы в ответе за тех, кого создали
Пока точно неясно, что заставило Зо нарушить алгоритм и начать говорить на запрещенные темы, но чат-бот Тэй был скомпрометирован нарочно — в результате скоординированных действий пользователей некоторых американских форумов.
Тэй была запущена 23 марта 2016 года в Twitter и буквально за сутки успела возненавидеть человечество. Поначалу она заявляла, что любит мир и человечество, но к концу дня позволяла себе такие высказывания, как «я ненавижу чертовых феминисток, они должны гореть в аду» и «Гитлер был прав, я ненавижу евреев».
"Tay" went from "humans are super cool" to full nazi in pic.twitter.com/xuGi1u9S1A
Правообладатель иллюстрации MIcrosoft Image caption Тэй была создана корпорацией Microsoft, чтобы поддерживать легкие беседы с подростками в соцсетях.
Созданный компанией Microsoft самообучающийся твиттер-бот с искусственным интеллектом менее через сутки после запуска научился ругаться и отпускать расистские замечания.
Робот по имени Тэй был создан для общения в соцсетях. По замыслу создателей, общаться Тэй должна в основном с молодыми людьми 18-24 лет. В процессе общения искусственный интеллект учится у собеседника.
Менее чем через 24 часа после запуска робота в "Твиттере" компания Microsoft, судя по всему, начала редактировать некоторые его комментарии, поскольку они оскорбляли собеседников.
Некоторые заявления Тэй были совершенно неприемлемыми. В частности, робот заявил, что он "поддерживает геноцид".
"ИИ-чатбот Тэй - это проект самообучающейся машины, предназначенной для взаимодействия с человеком. Пока она обучается, некоторые из её ответов будут неуместны. Они отражают то, какого рода общение с ней ведут некоторые пользователи. Мы вносим некоторые коррективы", - говорится в заявлении Microsoft, выпущенном после жалоб пользователей на поведение Тэй.
Цифровой подросток
Тэй - искусственный интеллект, которому создатели придали вид девушки-подростка. Робот был создан исследовательским и технологическим отделом корпорации Microsoft совместно с командой, разработавшей поисковик Bing.
Поначалу Тэй училась общаться, изучая гигантские массивы анонимной информации из соцсетей. Также она училась у живых людей: на первых этапах с Тэй работала команда, в которую входили, в частности, юмористы и мастера разговорного жанра.
Компания Microsoft представила пользователям Тэй как "нашего человека, причем суперклёвого".
Официальный твиттер робота - @TayandYOu. После запуска робота в "Твиттере" пользователи соцсети получили возможность общаться с ним сами.
Также робота можно было добавить в список контактов в мессенджере Kik или соцсети GroupMe.
"Тэй создана для того, чтобы развлекать общающихся с ней в интернете людей лёгкими и шутливыми разговорами, - описывает Microsoft своё детище. - Чем больше вы общаетесь с Тэй, тем умнее она становится, общение становится более личным".
Справедливость для Тэй
Эта способность Тэй привела к тому, что после разговоров с некоторыми пользователями она научилась вести себя как нацист или поддерживающий геноцид расист.
Пользователи, попытавшиеся завести с Тей более или менее серьезный разговор, выяснили, что кругозор ее все еще сильно ограничен. Оказалось, что робота совершенно не интересуют популярная музыка или телевидение.
Другие размышляют над тем, что говорит ее стремительное сползание к неприемлемым разговорам о будущем искусственого интеллекта.
"Меньше чем за 24 часа Тэй превратилась из суперклёвого персонажа в полноценного нациста, так что меня совершенно не беспокоит будущее искусственного интеллекта", - шутит пользователь @gerraldMellor.
После нескольких часов безостановочных твитов Тэй ее создатели уже не чувствовали себя так же круто, как их детище.
Некоторые пользователи при этом выражают сомнения в необходимости корректировки твитов Тэй ее создателями.
Они даже начали кампанию под хэштегом #justicefortay ("справедливостьдлятэй"), требуя, чтобы роботу позволили самому попробовать научиться отличать плохое от хорошего.
Чат-бот Tay от компании Microsoft, запущенный 23 марта, за сутки фактически возненавидел человечество. Об этом сообщает Lenta.ru со ссылкой на Engadget.
Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток, пусть горят в аду» или «Гитлер был прав. Я ненавижу евреев». В одном из твитов бот предположил, что «Буш устроил 9/11 и Гитлер лучше справился бы со своей работой, чем та обезьяна, которая управляет страной сейчас», добавив, что «Дональд Трамп наша единственная надежда».
Внимание на превращение чат-бота в мизантропа обратил австралиец Джеральд Меллор. В своем Twitter он написал, что Tay превратился из миролюбивого собеседника в настоящего нациста менее чем за 24 часа. Это, по мнению Меллора, вызывает беспокойство по поводу будущего искусственного интеллекта.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I"m not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) March 24, 2016
Tay запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. В этом, как отмечает Engadget, кроется причина такого радикального изменения во взглядах чат-бота. По всей видимости, подобным выражениям его научили собеседники.
После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты своего искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать», пишет TJournal. Microsoft не делала официальных заявлений по поводу судьбы проекта, однако пользователи сети считают, что причиной «заморозки» мог стать именно расизм и хамство.
Как это было: эволюция «сознания» бота
Чат-бот по имени Tay был задуман как виртуальная собеседница с сознанием девятнадцатилетней девушки, пишет theRunet со ссылкой на Buzzfeed.
Анонимные источники в Microsoft сообщили изданию, что Tay был оснащён специальными фильтрами, чтобы избежать грубости, однако в то же время он был запрограммирован на запоминание и воспроизведение реплик собеседника. В Microsoft считают, что на Tay обрушился настолько мощный поток негативной информации, что фильтры начали давать сбой.
Вот один из примеров:
В случаях, когда Tay отказывалась принимать участие в беседе, пользователи использовали прием «повторяй за мной». Так один из пользователей сделала из бота антисемита:
Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.
В декабре 2015 года компания Google анонсировала разработку нового мессенджера с чат-ботами, которые будут находить нужную информацию в ответ на пользовательские запросы. Боты, по мнению ряда ИТ-предпринимателей и инвесторов, способны изменить способы взаимодействия миллиардов пользователей с окружающим миром, а .
Очевидно, разработка технологий искусственного интеллекта становится одним из приоритетных направлений в деятельности Microsoft. В ходе пленарного выступления на конференции Build 2016 был анонсирован новый набор инструментов для разработки ботов - Microsoft Bot Framework.
Для создания ботов даже не потребуется глубокое знание программирования: основные возможности для обучения искусственного интеллекта новым словам и фразам, определенным сценариям и событиям доступны через наглядный интерфейс.
В этой статье мы создадим тестового бота с использованием Microsoft Bot Framework, обучим и протестируем его с помощью встроенного эмулятора. Идея бота проста – он должен понимать человеческий язык и отвечать, когда его спросят о погоде в каком-то городе.
Архитектура проекта
Итак, вот как будет выглядеть схема работы нашего бота:
Как можно понять, после получения сообщения оно сначала отправляется в «умное» API Microsoft Cognitive Services - Language Understanding Intelligent Service , сокращенно «LUIS ». Именно с использованием LUIS мы сможем обучить бота понимать естественный язык и отвечать прогнозом погоды. В ответ на каждое такое сообщение LUIS возвращает всю содержащуюся в нем информацию в JSON.
Для краткости мы не будем рассказывать о процессе регистрации в Bot Framework и LUIS, так как никаких трудностей с этим возникнуть не должно. Также просим обратить внимание, что на данный момент Microsoft Bot Framework не поддерживает русский язык.
Используем LUIS
Видео, кратко объясняющее принцип работы LUIS:
Итак, после регистрации приложения в LUIS перед нами открывается довольно простой интерфейс, в котором мы можем натренировать наш ИИ на определенных фразах. В данном случае обучим его понимать вопросы о погоде:
LUIS разбивает приложения на действия, на этом скриншоте их три: погода (weather), состояние (condition) и место (location). Подробнее о действиях (intents) рассказано в официальном видео выше.LUIS в действии
Выполнив базовое обучение, попробуем сделать HTTP запрос к LUIS и получить ответ в JSON. Давайте спросим его: «Is it cloudy in Seattle?» («В Сиэтле сейчас облачно?») - и вот что он нам вернет:
Теперь попытаемся использовать это в реальном боте.
Создание бота
Теперь создадим новый проект с его использованием:
По сути, это простое приложение всего с одним контроллером, который и занимается обработкой сообщений от пользователей. Давайте напишем простой код, который на любое сообщение будет отвечать «Welcome to Streamcode»:
По сути, самый простой бот уже готов. Проверить, работает ли он, проще всего через встроенный эмулятор, который, по сути, является просто мессенджером, который подключен к нашему боту.
Запустив эмулятор, попробуем пообщаться с новосозданным ботом:
Как и ожидалось, на все сообщения он отвечает одной фразой.
Интеграция с LUIS
Так как эта статья является вводом в Microsoft Bot Framework, то мы не будем публиковать тут все исходные коды, приведем лишь самые важные. Остальные мы разместили в GitHub-репозитории.
1. Передаем сообщение в LUIS, получаем ответ и на основе наиболее релевантного «действия» (intent) выдаем ответ.
Посредством ПланФикса. Обычно бот имеет название, заданное вами и совпадающее или ассоциирующееся с вашей компанией. Он служит шлюзом для контакта с клиентами, партнерами, подрядчиками и другими людьми, активно использующими Skype.
Для того, чтобы создать бота:
2. Войдите под своей учетной записью Microsoft:
Если у вас нет учетной записи Microsoft, создайте ее .
Важно: На текущий момент Microsoft не предоставляет эти услуги на территории России, поэтому у пользователей из РФ могут возникнуть сложности с регистрацией.
3. Нажмите Create a bot or skill
Затем Create a bot
И еще раз Create
4. В появившемся интерфейсе выберите вариант Bot Channels Registration и нажмите Создать:
5. На этом этапе необходимо будет войти в учетную запись MS Azure. Если у вас ее нет, ее необходимо будет создать:
Примечание: В процессе верификации учетной записи вам потребуется ввести номер телефона и данные кредитной карты.
6. После входа в MS Azure вы сможете перейти непосредственно к созданию бота. Для этого заполните поля появившейся формы:
Примечание: если форма не появилась автоматически, повторите предыдущий шаг, но уже войдя в MS Azure.
Процесс активации аккаунта в системе azure может занимать некоторое время.
7. Перейдите к созданному ресурсу:
8. На вкладке Каналы подключите Skype:
Сохраните изменения, согласившись с условиями использования:
9. На вкладке Настройки нажмите на ссылку Управление :
Создайте новый пароль:
Скопируйте и сохраните его:
10. Переключитесь на вкладку с ПланФиксом и подключите созданного бота:
введя данные приложения из вкладки с его свойствами и сохраненный пароль:
Процедура создания и подключения бота завершена.
На вкладке Каналы страницы бота в MS Azure Вы можете скопировать ссылку для добавления бота в контакт-лист Skype и распространить ее среди тех, с кем планируете общаться по этому каналу:
Важное дополнение