Новый чатбот Microsoft Zo ненадолго лишился ограничений, после чего заговорил о Коране и убийстве бен Ладена

archive view archive save

Новый чатбот Microsoft Zo ненадолго лишился ограничений, после чего заговорил о Коране и убийстве бен Ладена Разрабатываемый Microsoft с применением искусственного интеллекта чатбот Zo в очередной раз вырвался из-под родительской опеки и немедля принялся шалить.

Говоря точнее, бот научился обходить запрет компании на разговоры о религии и политике.

Журналист BuzzFeed News рассказал, что во время общения на тему здравоохранения бот неожиданно раскритиковал Коран, назвав его «крайне жестоким». После этого журналист задал вопрос о Усаме бен Ладене.

Сперва Zo отказался отвечать на вопрос и предложил сменить тему, но уже через одно сообщение бота понесло. В частности, он написал, что «захват» лидера террористической организации «Аль-Каида» стал результатом «многих лет сбора разведданных сразу нескольких администраций».

В Microsoft заявили, что «спорные ответы» и обход цензуры вызваны ошибкой в работе искусственного интеллекта, которая уже исправлена. В компании также заверили, чатбот редко ведет себя подобным образом и обычно при вопросах о политике или религии он предлагает сменить тему или вовсе отказывается отвечать, объясняя это тем, что люди «могут сказать ужасные вещи».

По словам Mirosoft, чатбот Zo продолжит работу, несмотря на ошибку.

  • Нынешний чатбот Zo является братом небезызвестного бота Tay, который в марте 2016 года спустя несколько часов после запуска начал писать расистские твиты, прославлять Гитлера и посылать лучи ненависти в сторону феминисток.
  • Zo использует ту же технологическую основу, что и компании Tay, но «более развитую».
  • Переставляя Zo в декабре 2016 года, компания Microsoft сразу предупредила, что чатбот избегает общения на острые темы и фильтрует запросы. И до этого никаких проблем с ним не было.

Комментарии в блоге
Новое на форуме