Posts Recentes:

Criação de artigos exclusivos a partir de feeds RSS importados usando IA

Você sabia que o shortcode é perfeito...

Por que o EQ é importante no trabalho (e no SEO)

A inteligência emocional (EQ) é importante em nosso...

As visões gerais de IA do Google se tornam virais e atraem o escrutínio da mídia convencional

A implementação pelo Google de visões gerais geradas...

Esta semana em IA: Abordando o racismo em geradores de imagens de IA


Acompanhar uma indústria tão veloz quanto IA é uma tarefa difícil. Então, até que uma IA possa fazer isso por você, aqui está um resumo útil de histórias recentes no mundo do aprendizado de máquina, junto com pesquisas e experimentos notáveis ​​que não abordamos por conta própria.

Esta semana em IA, Google pausado a capacidade de seu chatbot Gemini de IA de gerar imagens de pessoas depois que um segmento de usuários reclamou de imprecisões históricas. Dizendo para representar “uma legião romana”, por exemplo, Gêmeos mostraria um grupo anacrônico e caricatural de soldados de infantaria racialmente diversos, enquanto representava “guerreiros Zulu” como negros.

Parece que o Google – como alguns outros fornecedores de IA, incluindo OpenAI – implementou uma codificação desajeitada nos bastidores para tentar “corrigir” os preconceitos em seu modelo. Em resposta a solicitações como “mostre-me imagens apenas de mulheres” ou “mostre-me imagens apenas de homens”, Gêmeos recusaria, afirmando que tais imagens poderiam “contribuir para a exclusão e marginalização de outros gêneros”. Gémeos também relutava em gerar imagens de pessoas identificadas apenas pela sua raça – por exemplo, “pessoas brancas” ou “pessoas negras” – devido à preocupação ostensiva de “reduzir os indivíduos às suas características físicas”.

Os direitistas agarraram-se aos bugs como prova de uma agenda “despertada” que está a ser perpetuada pela elite tecnológica. Mas não é preciso a navalha de Occam para ver a verdade menos nefasta: o Google, antes queimado pelos preconceitos de suas ferramentas (veja: classificando os homens negros como gorilasconfundindo armas térmicas nas mãos de negros como armasetc.), está tão desesperado para evitar que a história se repita que está a manifestar um mundo menos tendencioso nos seus modelos de geração de imagens – por mais erróneos que sejam.

No seu livro best-seller “Fragilidade Branca”, a educadora anti-racista Robin DiAngelo escreve sobre como o apagamento da raça – “daltonismo”, por outra expressão – contribui para desequilíbrios sistémicos de poder racial em vez de os mitigar ou aliviar. Ao pretender “não ver cores” ou ao reforçar a noção de que simplesmente reconhecer a luta de pessoas de outras raças é suficiente para se rotular como “acordado”, as pessoas perpetuar prejudicar ao evitar qualquer conservação substantiva sobre o tema, diz DiAngelo.

O tratamento cauteloso do Google às solicitações baseadas em raça em Gemini não evitou o problema, por si só – mas tentou dissimuladamente esconder o pior dos preconceitos do modelo. Alguém poderia argumentar (e muitos têm) que estes preconceitos não devem ser ignorados ou encobertos, mas abordados no contexto mais amplo dos dados de formação dos quais surgem — ou seja, a sociedade na rede mundial de computadores.

Sim, os conjuntos de dados usados ​​para treinar geradores de imagens geralmente contêm mais pessoas brancas do que pessoas negras e, sim, as imagens de pessoas negras nesses conjuntos de dados reforçam estereótipos negativos. É por isso que geradores de imagens sexualizar certas mulheres negras, retratam homens brancos em posições de autoridade e geralmente favorece perspectivas ocidentais ricas.

Alguns podem argumentar que não há vitória para os fornecedores de IA. Quer abordem — ou optem por não enfrentar — os preconceitos dos modelos, serão criticados. E isso é verdade. Mas afirmo que, de qualquer forma, estes modelos carecem de explicação – embalados de uma forma que minimiza as formas como os seus preconceitos se manifestam.

Se os fornecedores de IA abordassem as deficiências dos seus modelos de frente, numa linguagem humilde e transparente, iriam muito mais longe do que tentativas aleatórias de “consertar” o que é essencialmente um preconceito incorrigível. Todos nós temos preconceitos, a verdade é – e, como resultado, não tratamos as pessoas da mesma forma. Nem os modelos que estamos construindo. E faríamos bem em reconhecer isso.

Aqui estão algumas outras histórias dignas de nota sobre IA dos últimos dias:

  • Mulheres na IA: TechCrunch lançou uma série destacando mulheres notáveis ​​na área de IA. Leia a lista aqui.
  • Difusão Estável v3: Stability AI anunciou Stable Diffusion 3, a versão mais recente e poderosa do modelo de IA de geração de imagens da empresa, baseado em uma nova arquitetura.
  • Chrome obtém GenAI: A nova ferramenta Gemini do Google no Chrome permite aos usuários reescrever textos existentes na web – ou gerar algo completamente novo.
  • Mais preto que ChatGPT: A agência de publicidade criativa McKinney desenvolveu um jogo de perguntas, Are You Blacker than ChatGPT?, para esclarecer o preconceito da IA.
  • Solicita leis: Centenas de luminares da IA ​​assinaram uma carta pública no início desta semana pedindo legislação anti-deepfake nos EUA
  • Partida feita em IA: A OpenAI tem um novo cliente no Match Group, proprietário de aplicativos como Hinge, Tinder e Match, cujos funcionários usarão a tecnologia de IA da OpenAI para realizar tarefas relacionadas ao trabalho.
  • Segurança DeepMind: DeepMind, divisão de pesquisa de IA do Google, formou uma nova organização, AI Safety and Alignment, composta por equipes existentes que trabalham em segurança de IA, mas também ampliada para abranger novos grupos especializados de pesquisadores e engenheiros GenAI.
  • Modelos abertos: Quase uma semana após o lançamento da última iteração de seu Modelos Gêmeoso Google lançou Gemma, uma nova família de modelos leves e abertos.
  • Força-tarefa da casa: A Câmara dos Representantes dos EUA fundou uma força-tarefa sobre IA que – como escreve Devin – parece um golpe após anos de indecisão que não mostram sinais de fim.

Mais aprendizados de máquina

Os modelos de IA parecem saber muito, mas o que eles realmente sabem? Bem, a resposta é nada. Mas se você formular a questão de forma um pouco diferente… eles parecem ter internalizado alguns “significados” que são semelhantes ao que os humanos conhecem. Embora nenhuma IA realmente entenda o que é um gato ou um cachorro, poderia ela ter algum senso de semelhança codificado em suas incorporações dessas duas palavras que seja diferente de, digamos, gato e garrafa? Os pesquisadores da Amazon acreditam que sim.

Sua pesquisa comparou as “trajetórias” de sentenças semelhantes, mas distintas, como “o cachorro latiu para o ladrão” e “o ladrão fez o cachorro latir”, com sentenças gramaticalmente semelhantes, mas diferentes, como “um gato dorme o dia todo”. e “uma garota corre a tarde toda”. Eles descobriram que aqueles que os humanos considerariam semelhantes eram de fato tratados internamente como mais semelhantes, apesar de serem gramaticalmente diferentes, e vice-versa para os gramaticalmente semelhantes. OK, sinto que este parágrafo foi um pouco confuso, mas basta dizer que os significados codificados nos LLMs parecem ser mais robustos e sofisticados do que o esperado, não totalmente ingênuos.

A codificação neural está se mostrando útil na visão protética, Pesquisadores suíços da EPFL descobriram. Retinas artificiais e outras formas de substituir partes do sistema visual humano geralmente têm resolução muito limitada devido às limitações dos conjuntos de microeletrodos. Portanto, não importa quão detalhada seja a imagem, ela deve ser transmitida com uma fidelidade muito baixa. Mas existem diferentes maneiras de reduzir a resolução, e esta equipe descobriu que o aprendizado de máquina faz um ótimo trabalho nisso.

neural downsample epfl

Créditos da imagem: EPFL

“Descobrimos que se aplicássemos uma abordagem baseada na aprendizagem, obteríamos melhores resultados em termos de codificação sensorial otimizada. Mas o mais surpreendente foi que, quando usamos uma rede neural irrestrita, ela aprendeu a imitar aspectos do processamento da retina por conta própria”, disse Diego Ghezzi em comunicado à imprensa. Basicamente, ele faz compressão perceptual. Eles testaram em retinas de ratos, então não é apenas teórico.

Uma aplicação interessante da visão computacional feita por pesquisadores de Stanford sugere um mistério em como as crianças desenvolvem suas habilidades de desenho. A equipe solicitou e analisou 37 mil desenhos feitos por crianças de vários objetos e animais, e também (com base nas respostas das crianças) o quão reconhecível era cada desenho. Curiosamente, não foi apenas a inclusão de características próprias, como orelhas de coelho, que tornou os desenhos mais reconhecíveis por outras crianças.

“Os tipos de características que tornam os desenhos das crianças mais velhas reconhecíveis não parecem ser motivados por apenas uma única característica que todas as crianças mais velhas aprendem a incluir nos seus desenhos. É algo muito mais complexo que esses sistemas de aprendizado de máquina estão percebendo”, disse a pesquisadora-chefe Judith Fan.

Químicos (também na EPFL) encontraram que os LLMs também são surpreendentemente hábeis em ajudar em seu trabalho após um treinamento mínimo. Não se trata apenas de fazer química diretamente, mas sim de ser aperfeiçoado em um corpo de trabalho que os químicos individualmente não podem conhecer completamente. Por exemplo, em milhares de artigos pode haver algumas centenas de afirmações sobre se uma liga de alta entropia é monofásica ou múltipla (você não precisa saber o que isso significa – eles sabem). O sistema (baseado em GPT-3) pode ser treinado neste tipo de perguntas e respostas sim/não, e logo será capaz de extrapolar a partir disso.

Não se trata de um grande avanço, apenas mais uma evidência de que os LLMs são uma ferramenta útil neste sentido. “A questão é que isso é tão fácil quanto fazer uma pesquisa bibliográfica, o que funciona para muitos problemas químicos”, disse o pesquisador Berend Smit. “Consultar um modelo fundamental pode se tornar uma forma rotineira de iniciar um projeto.”

Durar, uma palavra de cautela dos pesquisadores de Berkeley, embora agora que estou lendo o post novamente perceba que a EPFL também estava envolvida com este. Vá Lausana! O grupo descobriu que as imagens encontradas através do Google tinham muito mais probabilidade de impor estereótipos de género para determinados empregos e palavras do que textos que mencionassem a mesma coisa. E também havia muito mais homens presentes em ambos os casos.

Não só isso, mas numa experiência, descobriram que as pessoas que viam imagens em vez de lerem texto quando pesquisavam um papel associavam esses papéis a um género de forma mais fiável, mesmo dias depois. “Isto não se trata apenas da frequência do preconceito de género online”, disse o investigador Douglas Guilbeault. “Parte da história aqui é que há algo muito pegajoso, muito poderoso na representação de pessoas por imagens que o texto simplesmente não tem.”

Com coisas como a briga de diversidade do gerador de imagens do Google acontecendo, é fácil perder de vista o fato estabelecido e frequentemente verificado de que a fonte de dados para muitos modelos de IA mostra preconceitos sérios, e esse preconceito tem um efeito real nas pessoas.

Últimas

Criação de artigos exclusivos a partir de feeds RSS importados usando IA

Você sabia que o shortcode é perfeito...

Por que o EQ é importante no trabalho (e no SEO)

A inteligência emocional (EQ) é importante em nosso...

As visões gerais de IA do Google se tornam virais e atraem o escrutínio da mídia convencional

A implementação pelo Google de visões gerais geradas...

Mulheres na IA: Arati Prabhakar acha que é crucial acertar a IA

Para dar às mulheres acadêmicas e outras pessoas...

Assine

spot_img

Veja Também

Criação de artigos exclusivos a partir de feeds RSS importados usando IA

Você sabia que o shortcode é perfeito...

Por que o EQ é importante no trabalho (e no SEO)

A inteligência emocional (EQ) é importante em nosso...

As visões gerais de IA do Google se tornam virais e atraem o escrutínio da mídia convencional

A implementação pelo Google de visões gerais geradas...

Mulheres na IA: Arati Prabhakar acha que é crucial acertar a IA

Para dar às mulheres acadêmicas e outras pessoas...
spot_img

Criação de artigos exclusivos a partir de feeds RSS importados usando IA

Você sabia que o shortcode é perfeito para criar artigos exclusivos com plug-ins CyberSEO Pro e RSS Retriever baseados em conteúdo importado?...

Por que o EQ é importante no trabalho (e no SEO)

A inteligência emocional (EQ) é importante em nosso trabalho e em nossa vida pessoal. Ajuda-nos a gerir e resolver conflitos e a...

As visões gerais de IA do Google se tornam virais e atraem o escrutínio da mídia convencional

A implementação pelo Google de visões gerais geradas por IA nos resultados de pesquisa nos EUA está tomando um rumo desastroso, com os...