O presidente dos Estados Unidos, Joe Biden, assinou uma ordem executiva histórica estabelecendo novos padrões em torno do desenvolvimento e uso da perceptibilidade sintético (IA).
Embora tenha porquê objetivo gerenciar riscos em todos os setores, o pedido pode impactar potencialmente o uso de ferramentas de IA pelos profissionais de marketing do dedo.
O pedido exige testes extensivos de segurança e requisitos de relatórios para sistemas de IA.
Com os consumidores cautelosos quanto aos riscos de privacidade de dados, o foco do pedido na privacidade pode impactar as ferramentas de IA dependentes de dados pessoais. Eles podem tolerar pressão para melhorar a transparência.
As ferramentas de marketing que aproveitam a IA para funções porquê direcionamento de anúncios, geração de teor e estudo do consumidor podem estar sob um escrutínio mais rigoroso.
“Muitos desses [sections] exclusivamente arranhe a superfície – mormente em áreas porquê política de concorrência”, comentou o senador Mark Warner sobre o pedido, sugerindo que novas regulamentações de IA poderiam surgir.
Foco na proteção da privacidade
A ordem enfatiza a proteção da privacidade à medida que as capacidades de IA crescem. As empresas que dependem de dados de consumidores para treinar sistemas de IA poderão ter de reavaliar as práticas à luz de regras de privacidade mais rigorosas.
Ao concordar a inovação em IA, Biden deixou simples que usos antiéticos não serão tolerados.
Os profissionais de marketing deveriam esperar mais monitoramento de ferramentas de IA opacas que poderiam permitir discriminação ou ilusão.
Preparando-se para auditorias e supervisão mais rigorosas
Para as empresas e os profissionais de marketing, nascente novo envolvente regulatório provavelmente exigirá que as práticas de IA sejam focadas na moral e nos benefícios para o consumidor. Mais transparência e cautela na recolha de dados também podem ser necessárias.
A Lar Branca pretende lastrar o rápido progresso da IA com o desenvolvimento responsável. Especificamente, a ordem orienta a FTC a utilizar as suas autoridades para promover a concorrência leal no desenvolvimento e utilização da IA.
Isto abre a porta a potenciais ações antitrust contra empresas de tecnologia de marketing que abusam da sua posição ou adquirem startups de IA mais pequenas.
Há também um foco na mitigação de preconceitos nos sistemas de IA, o que poderia levar a auditorias de ferramentas de marketing para discriminação em áreas porquê entrega de anúncios e preços dinâmicos. A adoção de técnicas de mitigação de preconceitos e algoritmos de auditoria crescerá em valimento.
A promoção de métodos de preservação da privacidade, porquê a aprendizagem federada, indica que os profissionais de marketing podem precisar depender menos do entrada direto a dados confidenciais do consumidor para treinar modelos de IA.
IA moral porquê vantagem competitiva?
O impulso à moral e à transparência poderia dar aos profissionais de marketing que adoptam a IA responsável uma vantagem competitiva, uma vez que os consumidores exigem um tratamento justo. No entanto, a falta de informação em torno do uso da IA pode ser considerada enganosa.
À medida que o governo aumenta a contratação de talentos em IA, a supervisão e a auditoria do marketing orientado pela IA provavelmente se tornarão mais robustas sob os novos padrões.
Olhando para o horizonte
Embora a Lar Branca apoie a inovação na IA, a ordem de Biden sinaliza que utilizações opacas, tendenciosas ou prejudiciais da IA enfrentam um novo envolvente regulatório.
À medida que as capacidades avançam, os profissionais de marketing devem auditar proativamente os algoritmos, minimizar a coleta de dados do consumidor e comunicar-se de forma transparente sobre os casos de uso de IA para manter a crédito.
Embora alguns detalhes ainda não sejam vistos, esta ordem executiva fornece uma janela clara sobre as prioridades da gestão Biden para o desenvolvimento responsável da IA.
Imagem em destaque: lev radin/Shutterstock