Posts Recentes:

Criação de artigos exclusivos a partir de feeds RSS importados usando IA

Você sabia que o shortcode é perfeito...

Por que o EQ é importante no trabalho (e no SEO)

A inteligência emocional (EQ) é importante em nosso...

As visões gerais de IA do Google se tornam virais e atraem o escrutínio da mídia convencional

A implementação pelo Google de visões gerais geradas...

O Fórum do Senado AI Insight considera quem é o responsável pelos danos à IA


O Fórum de Insight sobre IA do Senado do governo dos EUA discutiu soluções para a segurança da IA, incluindo como identificar quem é o culpado pelos resultados prejudiciais da IA ​​e como impor responsabilidade por esses danos. O comitê ouviu uma solução da perspectiva da comunidade de IA de código aberto, apresentada pelo presidente da Mozilla Foundation, Mark Surman.

Até agora, o Senate AI Insight Forum tem sido dominado pelos guardiões corporativos dominantes da IA, Google, Meta, Microsoft e OpenAI.

Como consequência, grande parte da discussão partiu do ponto de vista deles.

O primeiro AI Insight Forum, realizado em 13 de setembro de 2023, foi criticado pela senadora Elizabeth Warren (D-MA) por ser uma reunião a portas fechadas dominada pelos gigantes corporativos da tecnologia que mais se beneficiam ao influenciar as conclusões do comitê.

Quarta-feira foi a oportunidade para a comunidade de código aberto oferecer sua opinião sobre como deveria ser a regulamentação.

Mark Surman, presidente da Fundação Mozilla

A fundação Mozilla é uma organização sem fins lucrativos dedicada a manter a Internet aberta e acessível. Recentemente, foi um dos contribuintes para o fundo de 200 milhões de dólares para apoiar uma coligação de interesse público dedicada a promover a IA para o bem público. A Mozilla Foundation também criou o Mozilla.ai, que está alimentando um ecossistema de IA de código aberto.

O discurso de Mark Surman ao fórum do Senado focou em cinco pontos:

  1. Incentivar a abertura e a transparência
  2. Distribuir a responsabilidade de forma equitativa
  3. Defendendo a privacidade por padrão
  4. Investimento em tecnologias que melhoram a privacidade
  5. Distribuição Equitativa de Responsabilidades

Desses cinco pontos, o ponto sobre a distribuição de responsabilidade é especialmente interessante porque aconselha um caminho a seguir sobre como identificar quem é o culpado quando as coisas correm mal com a IA e impor responsabilidade à parte culpada.

O problema de identificar quem é o culpado não é tão simples quanto parece à primeira vista.

O anúncio da Mozilla explicou este ponto:

“A complexidade dos sistemas de IA exige uma abordagem diferenciada à responsabilidade que considere toda a cadeia de valor, desde a recolha de dados até à implementação do modelo.

A responsabilidade não deve ser concentrada, mas sim distribuída de uma forma que reflita a forma como a IA é desenvolvida e levada ao mercado.

Em vez de olhar apenas para os implementadores destes modelos, que muitas vezes podem não estar em posição de mitigar as causas subjacentes aos potenciais danos, uma abordagem mais holística regularia práticas e processos em toda a ‘pilha’ de desenvolvimento.”

A pilha de desenvolvimento é uma referência às tecnologias que trabalham juntas para criar IA, que inclui os dados usados ​​para treinar os modelos fundamentais.

As observações de Surman usaram o exemplo de um chatbot que oferece aconselhamento médico com base num modelo criado por outra empresa e depois aperfeiçoado pela empresa médica.

Quem deve ser responsabilizado se o chatbot oferecer conselhos prejudiciais? A empresa que desenvolveu a tecnologia ou a empresa que aperfeiçoou o modelo?

A declaração de Surman explicou mais detalhadamente:

“O nosso trabalho sobre a Lei da IA ​​da UE nos últimos anos mostrou a dificuldade de identificar quem é o culpado e de atribuir responsabilidades ao longo da cadeia de valor da IA.

Desde conjuntos de dados de treinamento até modelos básicos e aplicativos que usam o mesmo modelo, os riscos podem surgir em diferentes pontos e camadas durante o desenvolvimento e a implantação.

Ao mesmo tempo, não se trata apenas de onde o dano se origina, mas também de quem pode melhor mitigá-lo.”

Estrutura para impor responsabilidade por danos à IA

A declaração de Surman à comissão do Senado sublinha que qualquer quadro desenvolvido para determinar qual entidade é responsável pelos danos deve ter em vigor toda a cadeia de desenvolvimento.

Ele observa que isso inclui não apenas considerar todos os níveis da pilha de desenvolvimento, mas também a forma como a tecnologia é usada, a questão é que quem é responsabilizado depende de quem é mais capaz de mitigar esse dano em seu ponto do que Surman chama de “ cadeia de valor.”

Isso significa que se um produto de IA tiver alucinações (o que significa mentir e inventar factos falsos), a entidade mais capaz de mitigar esse dano é aquela que criou o modelo fundamental e, em menor grau, aquela que ajusta e implementa o modelo.

Surman concluiu este ponto dizendo:

“Qualquer quadro para impor responsabilidades precisa de ter em conta esta complexidade.

O que é necessário é um processo claro para navegar.

A regulamentação deve, portanto, ajudar na descoberta e notificação de danos (independentemente do estágio em que é provável que surjam), na identificação de onde estão suas causas profundas (o que exigirá avanços técnicos quando se trata de modelos de transformadores) e um mecanismo para responsabilizar os responsáveis ​​por corrigir ou não as causas subjacentes a esses desenvolvimentos.”

Quem é responsável pelos danos da IA?

O presidente da Fundação Mozilla, Mark Surman, levanta questões excelentes sobre como deveria ser o futuro da regulamentação. Ele discutiu questões de privacidade, que são importantes.

Mas é de particular interesse a questão da responsabilidade e o conselho único proposto para identificar quem é o responsável quando a IA dá errado.

Leia a postagem oficial do blog da Mozilla:

Mozilla se junta ao mais recente fórum AI Insight

Leia os comentários do presidente da Mozilla, Mark Surman, ao Fórum do Senado AI Insight:

Fórum AI Insight: Privacidade e Responsabilidade (PDF)

Imagem em destaque por Shutterstock/Ron Adar

Últimas

Criação de artigos exclusivos a partir de feeds RSS importados usando IA

Você sabia que o shortcode é perfeito...

Por que o EQ é importante no trabalho (e no SEO)

A inteligência emocional (EQ) é importante em nosso...

As visões gerais de IA do Google se tornam virais e atraem o escrutínio da mídia convencional

A implementação pelo Google de visões gerais geradas...

Mulheres na IA: Arati Prabhakar acha que é crucial acertar a IA

Para dar às mulheres acadêmicas e outras pessoas...

Assine

spot_img

Veja Também

Criação de artigos exclusivos a partir de feeds RSS importados usando IA

Você sabia que o shortcode é perfeito...

Por que o EQ é importante no trabalho (e no SEO)

A inteligência emocional (EQ) é importante em nosso...

As visões gerais de IA do Google se tornam virais e atraem o escrutínio da mídia convencional

A implementação pelo Google de visões gerais geradas...

Mulheres na IA: Arati Prabhakar acha que é crucial acertar a IA

Para dar às mulheres acadêmicas e outras pessoas...
spot_img

Criação de artigos exclusivos a partir de feeds RSS importados usando IA

Você sabia que o shortcode é perfeito para criar artigos exclusivos com plug-ins CyberSEO Pro e RSS Retriever baseados em conteúdo importado?...

Por que o EQ é importante no trabalho (e no SEO)

A inteligência emocional (EQ) é importante em nosso trabalho e em nossa vida pessoal. Ajuda-nos a gerir e resolver conflitos e a...

As visões gerais de IA do Google se tornam virais e atraem o escrutínio da mídia convencional

A implementação pelo Google de visões gerais geradas por IA nos resultados de pesquisa nos EUA está tomando um rumo desastroso, com os...