Posts Recentes:

UE investigará Delivery Hero e Glovo por preocupações com cartéis de entrega de alimentos

A Comissão Europeia anunciado uma investigação formal sobre...

Olhando para o futuro – SGE, Gemini…E AGI?

Este trecho é de SEO in the Gemini...

Hacking Digital PR: Como ganhar links de alta autoridade da mídia dos EUA

Está com problemas para fazer seu site ser...

Esta semana em IA: Podemos (e algum dia poderemos) confiar na OpenAI?


Acompanhar uma indústria tão veloz quanto IA é uma tarefa difícil. Então, até que uma IA possa fazer isso por você, aqui está um resumo útil de histórias recentes no mundo do aprendizado de máquina, junto com pesquisas e experimentos notáveis ​​que não abordamos por conta própria.

A propósito, o TechCrunch planeja lançar um boletim informativo sobre IA em 5 de junho. Fique atento. Enquanto isso, estamos aumentando a cadência de nossa coluna semirregular de IA, que antes era duas vezes por mês (ou mais), para semanal — portanto, fique atento para mais edições.

Esta semana, na IA, a OpenAI lançou planos com descontos para organizações sem fins lucrativos e clientes educacionais e abriu as cortinas sobre seus esforços mais recentes para impedir que atores mal-intencionados abusassem de suas ferramentas de IA. Não há muito o que criticar – pelo menos não na opinião deste escritor. Mas eu vai dizem que o dilúvio de anúncios parecia programado para conter a má imprensa da empresa nos últimos tempos.

Vamos começar com Scarlett Johansson. OpenAI removeu uma das vozes usado por seu chatbot ChatGPT com tecnologia de IA depois que os usuários apontaram que parecia estranhamente semelhante ao de Johansson. Mais tarde, Johansson divulgou um comunicado dizendo que contratou um consultor jurídico para perguntar sobre a voz e obter detalhes exatos sobre como ela foi desenvolvida – e que ela recusou repetidos pedidos da OpenAI para licenciar sua voz para ChatGPT.

Agora, um artigo no The Washington Post implica que a OpenAI não procurou de fato clonar a voz de Johansson e que quaisquer semelhanças foram acidentais. Mas por que, então, o CEO da OpenAI, Sam Altman, procurou Johansson e pediu que ela reconsiderasse dois dias antes de uma demonstração chamativa que apresentava a voz parecida? É um pouco suspeito.

Depois, há os problemas de confiança e segurança da OpenAI.

Como nós relatado no início do mêsOpenAI já foi dissolvido Equipe de superalinhamento, responsável por desenvolver formas de governar e dirigir sistemas de IA “superinteligentes”, recebeu a promessa de 20% dos recursos computacionais da empresa – mas apenas (e raramente) recebeu uma fração disso. Isso (entre outras razões) levou à demissão dos dois co-líderes das equipes, Jan Leike e Ilya Sutskever, ex-cientista-chefe da OpenAI.

Quase uma dúzia de especialistas em segurança deixaram a OpenAI no ano passado; vários, incluindo Leike, expressaram publicamente preocupações de que a empresa esteja priorizando projetos comerciais em detrimento dos esforços de segurança e transparência. Em resposta às críticas, OpenAI formou um novo comitê supervisionar as decisões de segurança e proteção relacionadas aos projetos e operações da empresa. Mas o comitê foi composto por pessoas de dentro da empresa – incluindo Altman – em vez de observadores externos. Isto como OpenAI supostamente considera abandonar sua estrutura sem fins lucrativos em favor de um modelo tradicional com fins lucrativos.

Incidentes como estes tornam mais difícil confiar na OpenAI, uma empresa cujo poder e influência crescem diariamente (ver: os seus acordos com editores de notícias). Poucas empresas, se houver alguma, são dignas de confiança. Mas as tecnologias revolucionárias do mercado da OpenAI tornam as violações ainda mais preocupantes.

Não ajuda em nada o fato de o próprio Altman não ser exatamente um farol de veracidade.

Quando as notícias do OpenAI táticas agressivas contra ex-funcionários quebrou – táticas que envolviam ameaçar os funcionários com a perda de seu patrimônio adquirido, ou a prevenção de vendas de ações, se eles não assinassem acordos restritivos de confidencialidade – Altman pediu desculpas e alegou que não tinha conhecimento das políticas. Mas, de acordo com Voxa assinatura de Altman está nos documentos de incorporação que promulgaram as políticas.

E se ex-membro do conselho da OpenAI Helen Toner é para acreditar – um dos ex-membros do conselho que tentou remover Altman de seu cargo no final do ano passado – Altman reteve informações, deturpou coisas que estavam acontecendo na OpenAI e, em alguns casos, mentiu abertamente para o conselho. Toner diz que o conselho soube do lançamento do ChatGPT através do Twitter, não de Altman; que Altman deu informações erradas sobre as práticas formais de segurança da OpenAI; e que Altman, descontente com um artigo acadêmico de autoria de Toner que lançou uma luz crítica sobre o OpenAI, tentou manipular os membros do conselho para tirar Toner do conselho.

Nada disso é um bom presságio.

Aqui estão algumas outras histórias dignas de nota sobre IA dos últimos dias:

  • Clonagem de voz facilitada: Um novo relatório do Center for Countering Digital Hate conclui que os serviços de clonagem de voz alimentados por IA tornam bastante trivial falsificar a declaração de um político.
  • A dificuldade das visões gerais de IA do Google: Visão geral de IA, os resultados de pesquisa gerados por IA que o Google começou a lançar de forma mais ampla no início deste mês na Pesquisa Google, preciso de algum trabalho. A empresa admite isso – mas afirma que está iterando rapidamente. (Veremos.)
  • Paul Graham sobre Altman: Em uma série de postagens no X, Paul Graham, cofundador da aceleradora de startups Y Combinator, rejeitou as alegações de que Altman foi pressionado a renunciar ao cargo de presidente da Y Combinator em 2019 devido a potenciais conflitos de interesse. (Y Combinator tem uma pequena participação na OpenAI.)
  • xAI levanta US$ 6 bilhões: A startup de IA de Elon Musk, xAI, levantou US$ 6 bilhões em financiamento enquanto Musk reforça capital para competir agressivamente com rivais como OpenAI, Microsoft e Alphabet.
  • O novo recurso de IA do Perplexity: Com seu novo recurso Perplexity Pages, a startup de IA Perplexity tem como objetivo ajudar os usuários a criar relatórios, artigos ou guias em um formato visualmente mais atraente, relata Ivan.
  • Números favoritos dos modelos de IA: Devin escreve sobre os números que diferentes modelos de IA escolhem quando têm a tarefa de dar uma resposta aleatória. Acontece que eles têm favoritos – um reflexo dos dados nos quais cada um foi treinado.
  • Mistral lança Codestral: Mistral, a startup francesa de IA apoiada pela Microsoft e avaliada em US$ 6 bilhões, lançou seu primeiro modelo generativo de IA para codificação, denominado Codestral. Mas não pode ser utilizado comercialmente, graças à licença bastante restritiva do Mistral.
  • Chatbots e privacidade: Natasha escreve sobre a força-tarefa ChatGPT da União Europeia e como ela oferece uma primeira visão sobre como desembaraçar a conformidade com a privacidade do chatbot de IA.
  • Gerador de som da ElevenLabs: A startup de clonagem de voz ElevenLabs introduziu uma nova ferramenta, anunciada pela primeira vez em fevereiro, que permite aos usuários gerar efeitos sonoros por meio de prompts.
  • Interconexões para chips AI: Gigantes da tecnologia, incluindo Microsoft, Google e Intel – mas não Arm, Nvidia ou AWS – formaram um grupo industrial, o UALink Promoter Group, para ajudar a desenvolver componentes de chips de IA de próxima geração.

Últimas

UE investigará Delivery Hero e Glovo por preocupações com cartéis de entrega de alimentos

A Comissão Europeia anunciado uma investigação formal sobre...

Olhando para o futuro – SGE, Gemini…E AGI?

Este trecho é de SEO in the Gemini...

Hacking Digital PR: Como ganhar links de alta autoridade da mídia dos EUA

Está com problemas para fazer seu site ser...

Google abandona eliminação gradual de cookies de terceiros

O Google anunciou que não eliminará mais cookies...

Assine

spot_img

Veja Também

UE investigará Delivery Hero e Glovo por preocupações com cartéis de entrega de alimentos

A Comissão Europeia anunciado uma investigação formal sobre...

Olhando para o futuro – SGE, Gemini…E AGI?

Este trecho é de SEO in the Gemini...

Hacking Digital PR: Como ganhar links de alta autoridade da mídia dos EUA

Está com problemas para fazer seu site ser...

Google abandona eliminação gradual de cookies de terceiros

O Google anunciou que não eliminará mais cookies...

A base de usuários do Telegram sobe para 950 milhões e planeja lançar uma loja de aplicativos

O aplicativo de mensagens Telegram atingiu 950 milhões...
spot_img

UE investigará Delivery Hero e Glovo por preocupações com cartéis de entrega de alimentos

A Comissão Europeia anunciado uma investigação formal sobre a gigante de entrega de alimentos sediada em Berlim, Delivery Hero, e sua subsidiária espanhola,...

Olhando para o futuro – SGE, Gemini…E AGI?

Este trecho é de SEO in the Gemini Era, de Marie Haynes © 2024, e reproduzido com permissão da Marie Haynes Consulting Inc. Há...

Hacking Digital PR: Como ganhar links de alta autoridade da mídia dos EUA

Está com problemas para fazer seu site ser mencionado em grandes sites de notícias para impulsionar suas classificações em mecanismos de busca? Você...