Posts Recentes:

Tornando a IA confiável: podemos superar as alucinações da caixa preta?


GettyImages 671264674

Uma vez que a maioria dos engenheirosquando moçoilo eu conseguia responder problemas de matemática do ensino fundamental somente preenchendo as respostas.

Mas quando eu não “mostrava meu trabalho”, meus professores descontavam pontos; a resposta certa não valia muito sem uma explicação. No entanto, esses elevados padrões de explicabilidade em longas divisões, de alguma forma, não parecem aplicar-se aos sistemas de IA, mesmo aqueles que tomam decisões cruciais e com impacto na vida.

Os principais players de IA que ocupam as manchetes atuais e alimentam o violência do mercado de ações – OpenAI, Google, Microsoft – operam suas plataformas em modelos de caixa preta. Uma consulta entra por um lado e uma resposta sai do outro lado, mas não temos teoria de quais dados ou raciocínio a IA usou para fornecer essa resposta.

A maioria dessas plataformas de IA de caixa preta são construídas em uma estrutura tecnológica de décadas chamada “rede neural”. Esses modelos de IA são representações abstratas das vastas quantidades de dados nos quais são treinados; eles não estão diretamente conectados aos dados de treinamento. Assim, as IAs de caixa preta inferem e extrapolam com base no que acreditam ser a resposta mais provável, e não em dados reais.

Às vezes, esse multíplice processo preditivo fica fora de controle e a IA “alucina”. Por natureza, a IA de caixa preta é inerentemente indigna de crédito porque não pode ser responsabilizada pelas suas ações. Se você não consegue ver por que ou uma vez que a IA faz uma previsão, não tem uma vez que saber se ela usou informações ou algoritmos falsos, comprometidos ou tendenciosos para chegar a essa desfecho.

Embora as redes neurais sejam incrivelmente poderosas e tenham vindo para permanecer, há outra estrutura de IA desconhecida ganhando destaque: a aprendizagem baseada em instâncias (IBL). E é tudo o que as redes neurais não são. IBL é uma IA em que os usuários podem incumbir, auditar e explicar. O IBL rastreia cada decisão até os dados de treinamento usados ​​para chegar a essa desfecho.

Por natureza, a IA de caixa preta é inerentemente indigna de crédito porque não pode ser responsabilizada pelas suas ações.

A IBL pode explicar todas as decisões porque a IA não gera um protótipo abstrato dos dados, mas toma decisões a partir dos próprios dados. E os usuários podem auditar a IA baseada no IBL, interrogando-a para deslindar por que e uma vez que tomou decisões e, em seguida, intervindo para emendar erros ou preconceitos.

Tudo isso funciona porque o IBL armazena dados de treinamento (“instâncias”) na memória e, desempenado aos princípios dos “vizinhos mais próximos”, faz previsões sobre novas instâncias, dada sua relação física com as instâncias existentes. O IBL é centrado em dados, portanto, pontos de dados individuais podem ser comparados diretamente entre si para obter insights sobre o conjunto de dados e as previsões. Ou seja, a IBL “mostra o seu trabalho”.

O potencial para tal IA compreensível é simples. Empresas, governos e quaisquer outras entidades regulamentadas que queiram implantar IA de forma confiável, explicável e auditável poderiam usar a IA da IBL para atender aos padrões regulatórios e de conformidade. O IBL AI também será particularmente útil para quaisquer aplicações onde as alegações de parcialidade sejam excessivas – contratações, admissões em faculdades, processos judiciais e assim por diante.

Últimas

Assine

spot_img

Veja Também

spot_img

Lucros da Apple mostram queda de 10% nas vendas do iPhone, recompra massiva alimenta salto nas ações

Maçã na quinta-feira relatou uma queda de 10% nas vendas do iPhone para o segundo trimestre fiscal, caindo de US$ 51,33 bilhões para...

Rede Hubble faz conexão Bluetooth com um satélite pela primeira vez

Rede Hubble tornou-se a primeira empresa na história a estabelecer uma conexão Bluetooth diretamente a um satélite — uma validação tecnológica crítica para...