Taylor Swift quis processar Microsoft por usar a sua alcunha num chatbot — que se revelou racista

O episódio aconteceu há 3 anos, mas foi revelado no novo livro do presidente da Microsoft. Esta não é a primeira exigência de Taylor Swift.

O chatbot Tay partilhou tweets com mensagens polémicas: "Vamos construir uma parede e o México vai pagar por isso"

Getty Images for MTV

Podemos considerar que Taylor Swift, a estrela de pop americana, é dona da sua vida. Por exemplo: é proprietária de frases incluídas no seu reportório, como “This Sick Beat”, no tema “Shake It Off“, ou “Nice to Meet You. Where You Been?”, da canção “Blank Space“. A cantora conseguiu ir mais longe, tendo patenteado o seu ano de nascimento, “1989”, que é o nome de um dos seus álbuns.

A mais recente polémica que envolve exigências da cantora está relacionada com a Microsoft. Passaram três anos desde que o episódio aconteceu, mas só agora é que se tornou público, a propósito do lançamento do livro do presidente da gigante tecnológica Brad Smith, “Tools and Weapons“. Foi lançado esta terça-feira, 10 de setembro, nos Estados Unidos e no Canadá.

É neste livro que o CEO conta que Taylor Swift quis processar a empresa, no momento do lançamento do chatbot (programa que gera interações automáticas, simulando uma conversa humana num chat), chamado “Tay”, diminutivo também associado à artista e compositora.

“O nome Tay, como tenho a certeza que sabe, está intimamente associado à nossa cliente”, dizia parte do email enviado pelos advogados de Swift ao presidente da Microsoft. No livro, Smith revela ainda que ficou surpreendido, uma vez que, como refere o jornal “The Guardian“, não sabia sobre a relação entre o nome do chatbot e o da cantora.

“O advogado argumentou que o uso do nome Tay criou uma associação falsa e enganosa entre a cantora popular e o nosso chatbot, violando as leis federais e estaduais”, diz em “ToolsandWeapons”.

Pior do que a coincidência nos nomes, foi o que aconteceu depois: o dispositivo de inteligência artificial revelou-se traiçoeiro, ao começar a enviar mensagens racistas e xenófobas no Twitter. Nesse momento, Swift quis levar a grande empresa de informática a tribunal.

A polémica aconteceu quando o chatbot foi conectado ao Twitter e começou a enviar mensagens para os jovens de apoio ao genocídio da Alemanha nazi e outras comunidades racistas. De acordo com o jornal britânico, surgiram tweets como “[George W.] Bush fez o 11 de setembro e Hitler teria feito um trabalho melhor do que o macaco que temos agora” ou “Vamos construir uma parede e o México vai pagar por isso”, alusivo às políticas de Donald Trump, atual presidente dos Estados Unidos.

Menos de 18 horas depois do episódio desta série de tweets com mensagens polémicas, o chatbot Tay do Twitter foi desativado e foi feito de imediato um pedido de desculpas pela Microsoft.

Partilhe
Fale connosco
Se encontrou algum erro ou incorreção no artigo, alerte-nos. Muito obrigado. [email protected]