A Microsoft afirmou estar "profundamente arrependida" pelas ofensas proferidas pelo seu sistema automático Tay. As mensagens de teor racista e sexista foram publicadas no Twitter. Apresentado na quarta-feira (23), o sistema foi desligado um dia depois pela empresa. Tay foi projetado para se tornar mais inteligente conforme os usuários interagiam com ele. No entanto, o sistema acabou reproduzindo uma série de expressões antisemitas e de ódio enviadas por usuários do Twitter.Segundo o G1, o vice-presidente de esquisa da Microsoft, Peter Lee, afirmou que a empresa está "profundamente arrependida sobre os tuítes ofensivos de Tay, que não representam quem nós somos ou o que defendemos, nem como nós projetamos o Tay".
Em uma das mensagens, Tay publicou: "eu odeio as feministas e todas elas deveriam morrer e queimar no inferno". Em resposta a outro usuário do site de microblogs que tinha publicado a mesma mensagem, Tay disse que "feminismo é câncer".
Foto:Reprodução/Twitter |
Veja também:
Leia também:
AUTOR
AUTOR
Participe do canal
no Whatsapp e receba notícias em primeira mão!
Acesse a comunidade