Escoltar uma indústria tão veloz quanto IA é uma tarefa difícil. Portanto, até que uma IA possa fazer isso por você, cá está um resumo útil de histórias recentes no mundo do aprendizagem de máquina, junto com pesquisas e experimentos notáveis que não abordamos por conta própria.
Esta semana na AI, a OpenAI realizou a primeira de muitas conferências de desenvolvedores que provavelmente virão. Durante a palestra, a empresa mostrou-se a matou de Novos Produtosincluindo uma versão melhorada do GPT-4, novos modelos de conversão de texto em fala e uma API para geração de imagens DALL-E 3entre outros.
Mas sem incerteza o pregão mais significativo foi GPTs.
Os GPTs da OpenAI fornecem uma maneira para os desenvolvedores construírem seus próprios sistemas de IA conversacional alimentados pelos modelos da OpenAI e publicá-los em um mercado hospedado pela OpenAI chamado GPT Store. Em breve, os desenvolvedores poderão até monetizar GPTs com base em quantas pessoas os usam, disse Sam Altman, CEO da OpenAI, no palco da conferência.
“Acreditamos que se você fornecer ferramentas melhores às pessoas, elas farão coisas incríveis”, disse Altman. “Você pode edificar um GPT… e logo publicá-lo para que outros possam usá-lo, e porquê eles combinam instruções, conhecimento expandido e ações, podem ser mais úteis para você.”
A mudança da OpenAI de fornecedor de padrão de IA para plataforma foi interessante, com certeza – mas não exatamente inesperada. A startup telegrafou suas ambições em março com o lançamento do plug-ins para ChatGPT, seu chatbot fundamentado em IA, que trouxe terceiros para o ecossistema padrão da OpenAI pela primeira vez.
Mas o que pegou leste jornalista desprevenido foi a amplitude e profundidade das ferramentas GPT de construção – e comercialização – da OpenAI desde o início.
Meu colega Devin Coldewey, que participou pessoalmente da conferência da OpenAI, me disse que a experiência GPT foi “um pouco problemática” nas demonstrações – mas funciona porquê anunciado, mais ou menos. Os GPTs não exigem experiência em codificação e podem ser tão simples ou complexos quanto o desenvolvedor desejar. Por exemplo, um GPT pode ser treinado em uma coleção de livros de receitas para que possa fazer perguntas sobre ingredientes para uma receita específica. Ou uma GPT poderia ingerir bases de código proprietárias de uma empresa para que os desenvolvedores possam verificar seu estilo ou gerar código de pacto com as práticas recomendadas.
As GPTs democratizam efetivamente a geração de aplicativos generativos de IA – pelo menos para aplicativos que usam a família de modelos OpenAI. E se eu fosse os rivais da OpenAI – pelo menos os rivais sem o pedestal da Big Tech – estaria correndo para a sala de guerra figurativa para reunir uma resposta.
A GPT poderia terminar com consultorias cujos modelos de negócios giram em torno da construção do que são essencialmente GPTs para os clientes. E para clientes com talentos de desenvolvimento, poderia gerar fornecedores padrão que não oferecer qualquer forma de utensílio de geração de aplicativos menos simpático, dadas as complexidades de ter que integrar APIs de um provedor em aplicativos e serviços existentes.
Isso é uma coisa boa? Eu diria que não necessariamente – e estou preocupado com o potencial de monopólio. Mas a OpenAI tem a vantagem de ser o pioneiro e está aproveitando isso – para melhor ou para pior.
Cá estão algumas outras histórias dignas de nota sobre IA dos últimos dias:
- Samsung revela IA generativa: Poucos dias depois o evento de desenvolvimento da OpenAI, a Samsung revelou sua própria família de IA generativa, Samsung Gauss, no Samsung AI Forum 2023. Composta por três modelos — um grande padrão de linguagem semelhante ao ChatGPT, um padrão de geração de código e um padrão de geração de imagem e padrão de edição – o Samsung Gauss agora está sendo usado internamente pela equipe da Samsung, disse a empresa de tecnologia, e estará disponível para usuários públicos “em um porvir próximo”.
- A Microsoft oferece computação de IA gratuita para startups: A Microsoft anunciou esta semana que está atualizando seu programa de inicialização, Microsoft for Startups Founders Hub, para incluir uma opção gratuita de infraestrutura de IA do Azure para clusters de máquinas virtuais de GPU “high-end” baseados em Nvidia para treinar e executar modelos generativos. Y Combinator e sua comunidade de fundadores de startups serão os primeiros a obter entrada aos clusters em visualização privada, seguidos pelo M12, o fundo de risco da Microsoft, e startups no portfólio do M12 – e potencialmente outros investidores e aceleradores de startups depois disso.
- O YouTube testa recursos generativos de IA: O YouTube em breve começará a testar novos recursos generativos de IA, a empresa anunciado essa semana. Uma vez que segmento do pacote premium disponível para assinantes pagantes do YouTube, os usuários poderão testar uma utensílio de conversação que usa IA para responder perguntas sobre o teor do YouTube e fazer recomendações, além de um recurso que resume tópicos nos comentários de um vídeo.
- Uma entrevista com o chefe de robótica da DeepMind: Brian conversou com Vincent Vanhoucke, dirigente de robótica do Google DeepMind, sobre as grandes ambições robóticas do Google. A entrevista abordou uma série de tópicos, incluindo robôs de uso universal, IA generativa e – supra de tudo – Wi-Fi de escritório.
- A startup de IA de Kai-Fu Lee revela modelo: Kai-Fu Lee, o investigador da computação espargido no Oeste por seu best-seller “AI Superpowers” e na China por suas apostas em unicórnios de IA, está ganhando terreno impressionante com sua própria startup de IA, 01.AI. Sete meses depois sua instalação, a 01.AI — avaliada em US$ 1 bilhão — lançou seu primeiro padrão, o código descerrado Yi-34B.
- GitHub apresenta plano Copilot personalizável: O GitHub anunciou esta semana planos para um nível de assinatura empresarial que permitirá às empresas ajustar seus Copiloto par-programador com base em sua base de código interna. A notícia fez segmento de uma série de informações notáveis que a empresa de propriedade da Microsoft revelou em sua conferência anual de desenvolvedores GitHub Universe na quarta-feira, incluindo um novo programa de parceria, além de fornecer mais perspicuidade sobre quando o Copilot Chat – o recurso semelhante ao chatbot recentemente revelado do Copilot – estará oficialmente disponível.
- Equipe modelo de duas pessoas da Hugging Face: A startup de IA Hugging Face oferece uma ampla gama de ferramentas de hospedagem e desenvolvimento de ciência de dados. Mas algumas das ferramentas mais impressionantes – e capazes – da empresa atualmente vêm de uma equipe de duas pessoas formada em janeiro, chamada H4.
- Mozilla lança um chatbot de IA: No início deste ano, Mozilla adquiriu o Fakespot, uma startup que utiliza IA e aprendizagem de máquina para identificar análises de produtos falsas e enganosas. Agora, a Mozilla está lançando seu primeiro padrão de linguagem grande com a chegada do Bate-papo falso, um agente de IA que ajuda os consumidores enquanto fazem compras online, respondendo a perguntas sobre produtos e até sugerindo perguntas que podem ser úteis na pesquisa de produtos.
Mais aprendizados de máquina
Vimos em muitas disciplinas porquê os modelos de aprendizagem de máquina são capazes de fazer previsões realmente boas de limitado prazo para estruturas de dados complexas depois de examinar muitos exemplos anteriores. Por exemplo, poderia prolongar o período de alerta para os próximos terramotos, dando às pessoas 20-30 segundos adicionais cruciais para se protegerem. E o Google mostrou que também é bom em prever padrões climáticos.

Vários apareceram na postagem mostrando porquê o MetNet integra dados em suas previsões baseadas em ML. Créditos da imagem: Google
MetNet-3 é o mais recente de uma série de modelos meteorológicos baseados na física que analisam uma variedade de variáveis, porquê precipitação, temperatura, vento e cobertura de nuvens, e produzem previsões de solução surpreendentemente subida (temporal e espacial) para o que provavelmente acontecerá. venha a seguir. Muito desse tipo de previsão é fundamentado em modelos bastante antigos, que são precisos algumas vezes, mas não outras, ou podem se tornar mais precisos combinando seus dados com outras fontes – que é o que o MetNet-3 faz. Não vou entrar muito em detalhes, mas eles fizeram um post muito interessante sobre o assunto na semana passada, isso dá uma ótima noção de porquê funcionam os modernos mecanismos de previsão do tempo.
Em outras notícias científicas altamente específicas, pesquisadores da Universidade do Kansas fizeram um detector para texto gerado por IA… para artigos de periódicos sobre química. Evidente, não é útil para a maioria das pessoas, mas depois que OpenAI e outros pisaram no freio nos modelos de detectores, é útil mostrar que, pelo menos, alguma coisa mais restringido é provável. “A maior segmento do campo da estudo de texto deseja um detector realmente universal que funcione em qualquer coisa”, disse a coautora Heather Desaire. “Estávamos realmente buscando precisão.”
Seu padrão foi treinado em artigos da revista American Chemical Society, aprendendo a grafar seções de introdução unicamente a partir do título e unicamente do resumo. Posteriormente, foi capaz de identificar introduções escritas em ChatGPT-3.5 com precisão quase perfeita. Obviamente, leste é um caso de uso extremamente restrito, mas a equipe ressalta que foi capaz de configurá-lo de forma bastante rápida e fácil, o que significa que um detector poderia ser configurado para diferentes ciências, periódicos e idiomas.
Ainda não existe um para redações de recepção à faculdade, mas a IA pode estar do outro lado desse processo em breve, não decidindo quem entra, mas ajudando os oficiais de recepção a identificar diamantes brutos. Pesquisadores da Universidade do Colorado e da UPenn mostraram que um padrão de ML foi capaz de identificar com sucesso passagens nas redações dos alunos que indicavam interesses e qualidadesporquê liderança ou “propósito pró-social”.
Os alunos não serão pontuados desta forma (ainda), mas é uma utensílio muito necessária na caixa de ferramentas dos administradores, que devem passar por milhares de inscrições e podem ajudar de vez em quando. Eles poderiam usar uma estrato de estudo porquê essa para agrupar redações ou até mesmo randomizá-las melhor para que todos que falam sobre acampamento não acabem em fileira. E a investigação revelou que a língua utilizada pelos estudantes era surpreendentemente preditiva de certos factores académicos, porquê a taxa de graduação. Eles analisarão isso mais profundamente, é evidente, mas está evidente que a estilometria baseada em ML continuará importante.
Porém, não seria bom perder de vista as limitações da IA, conforme evidenciado por um grupo de pesquisadores da Universidade de Washington que testou a compatibilidade das ferramentas de IA com suas próprias necessidades de acessibilidade. Suas experiências foram decididamente mistas, com sistemas de resumo adicionando preconceitos ou detalhes alucinantes (tornando-os inadequados para pessoas incapazes de ler o material de origem) e aplicando de forma inconsistente regras de teor de acessibilidade.
Ao mesmo tempo, porém, uma pessoa com autismo descobriu que usar um padrão de linguagem para gerar mensagens no Slack os ajudou a superar a falta de crédito em sua capacidade de se discursar normalmente. Embora seus colegas de trabalho achassem as mensagens um tanto “robóticas”, isso foi um mercê líquido para o usuário, o que é um primícias. Você pode encontrar mais informações sobre este estudo aqui.
Ambos os itens anteriores trazem à tona questões espinhosas de preconceito e estranheza universal da IA em uma dimensão sensível, portanto, não é surpreendente que alguns estados e municípios estejam procurando estabelecer regras sobre porquê a IA pode ser usada em funções oficiais. Seattle, por exemplo, acaba de lançar um conjunto de “princípios governantes” e kits de ferramentas que devem ser consultados ou aplicados antes que um padrão de IA possa ser usado para fins oficiais. Não há incerteza de que veremos conjuntos de regras diferentes – e talvez contraditórios – aplicados em todos os níveis de governação.
Dentro da VR, um padrão de aprendizagem de máquina que funcionava porquê um detector de gestos maleável ajudou a gerar um conjunto de maneiras realmente interessantes de interagir com objetos virtuais. “Se usar VR é porquê usar um teclado e um mouse, logo qual é o sentido de usá-lo?” perguntou o responsável principal, Per Ola Kristensson. “Ele precisa dar a você poderes quase sobre-humanos que você não conseguiria em outro lugar.” Bom ponto!
Você pode ver no vídeo supra exatamente porquê funciona, o que quando você pensa sobre isso faz todo o sentido intuitivamente. Não quero selecionar “imitar” e depois “grudar” de um menu usando meu rato dedo. Quero segurar um objeto com uma mão, depois perfurar a palma da outra e bum, uma duplicata! Aí se eu quiser trinchar é só fazer a mão em tesoura?! Isso é incrível!

Créditos da imagem: EPFL
Por último, falando em Recortar/Grudar, esse é o nome do uma nova exposição na universidade suíça EPFL, onde estudantes e professores analisaram a história dos quadrinhos a partir da dez de 1950 e porquê a IA poderia aprimorá-los ou interpretá-los. Obviamente a arte generativa ainda não está a assumir o controlo, mas alguns artistas estão obviamente interessados em testar a novidade tecnologia, apesar do seu mistério ético e de direitos de responsável, e explorar as suas interpretações do material histórico. Se você tiver a sorte de estar em Lausanne, dê uma olhada no Couper/Coller (a versão lugar cativante das onipresentes ações digitais).