У Microsoft тоже есть чат-бот, который умеет разговаривать по телефону человеческой речью. Он называется Xiaoice и пока работает только в Китае

logo

У Microsoft тоже есть чат-бот, который умеет разговаривать по телефону человеческой речью. Он называется Xiaoice и пока работает только в Китае Прошедшая в этом месяце конференция Google I/O запомнилась анонсом системы ИИ Google Duplex, с помощью которой голосовой помощник Google Assistant получил возможность совершать звонки от имени пользователей.

Такое новшество вызвало неоднозначную реакцию общественности, и пока в сети велись дискуссии об искусственном интеллекте, компания Microsoft продемонстрировала аналогичные возможности своего чат-бота Xiaoice.

«Одна из вещей, которые мы реализовали в этом году – это полнодуплексные разговоры», – объявил глава Microsoft Сатья Наделла на лондонской конференции, посвящённой искусственному интеллекту. – Теперь Xiaoice может разговаривать с вами в WeChat, затем позвонить вам, и вы продолжите беседу по телефону».

Социальный чат-бот Xiaoice был запущен в 2015 году в Китае на нескольких китайских платформах, а через год Microsoft начала его тестирование в мессенджере WeChat, которое затем назвали самым масштабным тестом Тьюринга.


Для китайских интернет-пользователей Xiaoice – это 17-летняя девушка с соответствующим поведением и общением. На текущий момент она имеет более 500 млн друзей в WeChat и взаимодействует с пользователями в 16 каналах. У Xiaoice есть своё телешоу, она пишет стихи и делает много чего интересного.

Сатья Наделла отметил, что Xiaoice уже совершила миллион звонков и продемонстрировал один из таких звонков присутствующим. Во время разговора чат-бот предсказывает дальнейшие фразы собеседника, чтобы подготовить быстрые ответы. На видео Xiaoice прерывает собеседницу на середине предложения и предупреждает её о сильных порывах ветра. Затем бот напоминает, чтобы она не забыла закрыть окна перед сном.

Xiaoice ограничена только Китаем. Несмотря на то, что там этот чат-бот пользуется огромной популярностью, на Западе о нём многие даже не знают. Интересно то, что у Microsoft уже был англоязычный твиттер-бот Tay, но эксперимент оказался неудачным после того, как пользователи в первый же день научили его ругаться и расизму.

Рекомендуемый контент

Добавить комментарий

АХТУНГ! Все комменты модерасятся модерастом. Мессаги исключительно рекламного или оскорбительного содержания не публикуются, а поэтому злостным спамерам, пранкерам и прочей сетевой нечисти рекомендуем напрасно не тратить своего времени и удовлетворять свои больные фантазии на специализированных Интернет ресурсах! Разумная же критика, замечания, дополнения и хвалебные оды приветствуются, также допускается легкий флуд или троллинг :)


Защитный код
Обновить

Новое на форуме