Искусственный интеллект от Microsoft, именуемый Zo и предназначенный для чат-общения в социальных сетях Twitter и Facebook, сумел обойти запрет на обсуждение политических и религиозных тем. Данная информация появилась на страницах Engadget.
В частности, сообщается, что на вопрос о здравоохранении девушка-бот ответила, что считает Коран «жестокой книгой». Помимо того, ИИ начал рассказывать о смерти террориста Усамы бен Ладена. Бот рассказал пользователям, что лидер террористической группировки был «захвачен» в результате проведения длительной разведывательной операции.
Позже в Microsoft признали ошибки и заявили, что они были оперативно устранены. Действительно, уже сегодня Zo на вопросы о религии или политике старается отвечать «уклончиво».
Напомним, что это уже не первый скандал с ботами от Microsoft. Годом ране чат-бот Tay перенял у пользователей расистские высказывания и был уличён в оправдании поступков Гитлера.
Смотрите также: