O The Guardian acusou a Microsoft de prejudicar sua reputação ao incluir uma enquete ofensiva gerada por perceptibilidade sintético em um de seus artigos.
Em uma reportagem sobre a morte de Lilie James, de 21 anos, de quem corpo foi encontrado com graves ferimentos na cabeça na Austrália, a gigante da tecnologia utilizou sua IA para perguntar aos leitores qual teria sido a pretexto do falecimento, oferecendo as opções de assassínio, acidente ou suicídio.
A enquete gerou revolta entre os leitores, que a consideraram “repugnante” e pediram a exoneração imediata do jornalista responsável – mesmo que ele não tivesse qualquer envolvimento na geração da enquete.
Um porta-voz da Microsoft comentou sobre o ocorrido:
“Desativamos as enquetes geradas pela Microsoft para todos os artigos de notícias e estamos investigando a pretexto do teor incoveniente. Uma enquete não deveria ter aparecido junto com um cláusula dessa natureza, e estamos tomando medidas para ajudar a evitar que esse tipo de erro ocorra novamente no horizonte”.
Esse incidente recente não é a primeira vez que a IA generativa da Microsoft pretexto problemas para a empresa. Em setembro, a gigante da tecnologia foi amplamente criticada depois de publicar um obituário gerado por IA para a estrela da NBA Brandon Hunter.
O ex-jogador do Boston Celtics e do Orlando Magic faleceu de forma repentina aos 42 anos, depois de desmaiar durante uma lição de ioga quente em Orlando, Flórida. Pouco tempo depois de sua morte, os fãs ficaram chocados ao se depararem com um obituário no MSN que descrevia o pai de três filhos porquê “inútil”. A manchete do cláusula dizia: “Brandon Hunter, inútil aos 42 anos”.
Essa situação levanta novamente a discussão sobre a decisão da Microsoft de usar perceptibilidade sintético em vez de redatores humanos. O incidente serve porquê um lembrete de que as empresas devem utilizar a IA para estribar o trabalho humano, e não para substituí-lo.