Разрабатываемый Microsoft с применением искусственного интеллекта чатбот Zo в очередной раз вырвался из-под родительской опеки и немедля принялся шалить.
Говоря точнее, бот научился обходить запрет компании на разговоры о религии и политике.
Журналист BuzzFeed News рассказал, что во время общения на тему здравоохранения бот неожиданно раскритиковал Коран, назвав его «крайне жестоким». После этого журналист задал вопрос о Усаме бен Ладене.
Сперва Zo отказался отвечать на вопрос и предложил сменить тему, но уже через одно сообщение бота понесло. В частности, он написал, что «захват» лидера террористической организации «Аль-Каида» стал результатом «многих лет сбора разведданных сразу нескольких администраций».
В Microsoft заявили, что «спорные ответы» и обход цензуры вызваны ошибкой в работе искусственного интеллекта, которая уже исправлена. В компании также заверили, чатбот редко ведет себя подобным образом и обычно при вопросах о политике или религии он предлагает сменить тему или вовсе отказывается отвечать, объясняя это тем, что люди «могут сказать ужасные вещи».
По словам Mirosoft, чатбот Zo продолжит работу, несмотря на ошибку.
- Нынешний чатбот Zo является братом небезызвестного бота Tay, который в марте 2016 года спустя несколько часов после запуска начал писать расистские твиты, прославлять Гитлера и посылать лучи ненависти в сторону феминисток.
- Zo использует ту же технологическую основу, что и компании Tay, но «более развитую».
- Переставляя Zo в декабре 2016 года, компания Microsoft сразу предупредила, что чатбот избегает общения на острые темы и фильтрует запросы. И до этого никаких проблем с ним не было.