Microsoft expresó disculpas por los mensajes de Twitter racistas y sexistas generados por un robot que lanzó esta semana, escribió un representante de la compañía.
El sistema de inteligencia artificial, conocido como Tay, fue diseñado para ser más inteligente a medida que más usuarios interactúen con él. Sin embargo, rápidamente aprendió a repetir una serie de comentarios antisemitas y otras ideas que incitan al odio que los usuarios de Twitter comenzaron a proporcionar al programa, forzando el jueves pasado a Microsoft a desactivar su uso.
Tras el contratiempo, Microsoft dijo en una publicación en un blog que solo volvería a activar Tay cuando sus ingenieros encontrasen una manera de evitar que los usuarios influyan en el robot mediante mensajes que socaven los principios y valores de la empresa.
TECNOLOGÍA