Posts Recentes:

SoftBank adquire fabricante de chips de IA do Reino Unido Graphcore

Empresa de chips do Reino Unido Gráficooré foi...

Pesquisadores do Google alertam que a IA está destruindo a internet

Um estudo feito por pesquisadores do Google aponta...

Esta semana em IA: a Apple não dirá como a salsicha é feita


Olá pessoal, bem-vindos ao boletim informativo regular de IA do TechCrunch.

Esta semana na IA, a Apple roubou os holofotes.

Na Worldwide Developers Conference (WWDC) da empresa em Cupertino, a Apple revelou o Apple Intelligence, seu tão esperado avanço em todo o ecossistema para a IA generativa. O Apple Intelligence oferece uma série de recursos, desde uma Siri atualizada até Emoji gerado por IA a ferramentas de edição de fotos que removem pessoas e objetos indesejados das fotos.

A empresa prometeu que o Apple Intelligence está sendo construído com segurança em sua essência, juntamente com experiências altamente personalizadas.

“Ele precisa entendê-lo e estar fundamentado em seu contexto pessoal, como sua rotina, seus relacionamentos, suas comunicações e muito mais”, observou o CEO Tim Cook durante a palestra de segunda-feira. “Tudo isso vai além da inteligência artificial. É inteligência pessoal e é o próximo grande passo para a Apple.”

O Apple Intelligence é classicamente Apple: ele esconde a tecnologia essencial por trás de recursos obviamente úteis e intuitivos. (Cook nunca pronunciou a frase “modelo de linguagem grande”.) Mas como alguém que ganha a vida escrevendo sobre o ponto fraco da IA, gostaria que a Apple fosse mais transparente – só desta vez – sobre como a salsicha foi feita.

Tomemos, por exemplo, as práticas de treinamento modelo da Apple. A Apple revelou em uma postagem no blog que treina os modelos de IA que alimentam o Apple Intelligence em uma combinação de conjuntos de dados licenciados e na web pública. Os editores têm a opção de cancelar treinamentos futuros. Mas e se você for um artista curioso para saber se seu trabalho foi incluído na formação inicial da Apple? Azar – mãe é a palavra.

O sigilo pode ser por razões competitivas. Mas suspeito que também serve para proteger a Apple de desafios legais – especificamente desafios relativos a direitos autorais. Os tribunais ainda não decidiram se fornecedores como a Apple têm o direito de treinar com base em dados públicos sem compensar ou creditar os criadores desses dados – por outras palavras, se a doutrina do uso justo se aplica à IA generativa.

É um pouco decepcionante ver a Apple, que muitas vezes se apresenta como uma defensora da política tecnológica de bom senso, abraçar implicitamente o argumento do uso justo. Envolta pelo véu do marketing, a Apple pode alegar estar adotando uma abordagem responsável e comedida em relação à IA, embora possa muito bem ter treinado nos trabalhos dos criadores sem permissão.

Uma pequena explicação ajudaria muito. É uma pena que não tenhamos conseguido um – e não tenho esperança de que o consigamos tão cedo, exceto um processo (ou dois).

Notícias

Principais recursos de IA da Apple: Atenciosamente, resumimos os principais recursos de IA que a Apple anunciou durante a palestra da WWDC esta semana, desde o Siri atualizado até integrações profundas com ChatGPT da OpenAI.

OpenAI contrata executivos: A OpenAI contratou esta semana Sarah Friar, ex-CEO da rede social hiperlocal Nextdoor, para atuar como diretora financeira, e Kevin Weil, que anteriormente liderou o desenvolvimento de produtos no Instagram e no Twitter, como diretor de produtos.

Mail, agora com mais IA: Esta semana, o Yahoo (empresa controladora do TechCrunch) atualizou o Yahoo Mail com novos recursos de IA, incluindo resumos de e-mails gerados por IA. O Google introduziu recentemente um recurso de resumo generativo semelhante – mas está atrás de um acesso pago.

Visões controversas: Um estudo recente da Carnegie Mellon descobriu que nem todos os modelos generativos de IA são criados iguais – especialmente no que diz respeito à forma como tratam assuntos polarizados.

Gerador de som: Stability AI, a startup por trás do gerador de arte Stable Diffusion, alimentado por IA, lançou um modelo aberto de IA para gerar sons e músicas que afirma ter sido treinado exclusivamente em gravações isentas de royalties.

Artigo de pesquisa da semana

O Google acredita que pode construir um modelo generativo de IA para a saúde pessoal – ou pelo menos tomar medidas preliminares nessa direção.

Em um novo artigo google/blog/advancing-personal-health-and-wellness-insights-with-ai/" rel="noreferrer noopener">apresentado no blog oficial do Google AIpesquisadores do Google abrem a cortina do Personal Health Large Language Model, ou PH-LLM, para abreviar – uma versão aprimorada de um dos google-gemini-ai/" rel="noopener">Modelos Gemini do Google. O PH-LLM foi projetado para fornecer recomendações para melhorar o sono e o condicionamento físico, em parte por meio da leitura de dados de frequência cardíaca e respiratória de dispositivos vestíveis, como smartwatches.

Para testar a capacidade do PH-LLM de fornecer sugestões úteis de saúde, os pesquisadores criaram cerca de 900 estudos de caso sobre sono e condicionamento físico envolvendo indivíduos residentes nos EUA. Eles descobriram que o PH-LLM deu recomendações de sono que eram perto de – mas não tão boas quanto – recomendações dadas por especialistas em sono humano.

Os pesquisadores dizem que o PH-LLM poderia ajudar a contextualizar dados fisiológicos para “aplicações de saúde pessoal”. O Google Fit vem à mente; Eu não ficaria surpreso em ver o PH-LLM eventualmente potencializar algum novo recurso em um aplicativo do Google voltado para o condicionamento físico, Fit ou outro.

Modelo da semana

A Apple dedicou bastante cópia do blog detalhando seus novos modelos de IA generativos no dispositivo e na nuvem que compõem seu pacote Apple Intelligence. No entanto, apesar da extensão desta postagem, ela revela muito pouco sobre as capacidades dos modelos. Aqui está nossa melhor tentativa de analisá-lo:

O modelo sem nome no dispositivo que a Apple destaca é pequeno em tamanho, sem dúvida pode ser executado offline em dispositivos Apple como o iPhone 15 Pro e Pro Max. Ele contém 3 bilhões de parâmetros – “parâmetros” sendo as partes do modelo que essencialmente definem sua habilidade em um problema, como gerar texto – tornando-o comparável ao modelo Gemini no dispositivo do Google, Gemini Nano, que vem em 1,8 bilhão de parâmetros e Tamanhos de 3,25 bilhões de parâmetros.

O modelo do servidor, por sua vez, é maior (quanto maior, a Apple não dirá com precisão). O que nós fazer O que sabemos é que ele é mais capaz que o modelo no dispositivo. Embora o modelo no dispositivo tenha desempenho equivalente a modelos como Phi-3-mini da Microsoft, Mistral 7B da Mistral e Gemma 7B do Google nas listas de benchmarks da Apple, o modelo de servidor “compara-se favoravelmente” ao modelo carro-chefe mais antigo da OpenAI, GPT-3.5 Turbo, Apple reivindicações.

A Apple também diz que tanto o modelo no dispositivo quanto o modelo de servidor têm menos probabilidade de sair dos trilhos (ou seja, toxicidade do bico) do que modelos de tamanhos semelhantes. Pode ser que seja assim – mas este escritor reserva seu julgamento até que tenhamos a chance de testar a inteligência da Apple.

Sacola

Esta semana marcou o sexto aniversário do lançamento do GPT-1, o progenitor do GPT-4o, o mais recente modelo de IA generativa da OpenAI. E enquanto o aprendizado profundo pode estar atingindo uma paredeé incrível o quão longe o campo chegou.

Considere que demorou um mês para treinar o GPT-1 em um conjunto de dados de 4,5 gigabytes de texto (o BookCorpus, contendo aproximadamente 7.000 livros de ficção não publicados). O GPT-3, que tem quase 1.500 vezes o tamanho do GPT-1 em contagem de parâmetros e é significativamente mais sofisticado na prosa que pode gerar e analisar, levou 34 dias para ser treinado. Como é isso para escalar?

O que tornou o GPT-1 inovador foi sua abordagem de treinamento. As técnicas anteriores dependiam de grandes quantidades de dados rotulados manualmente, limitando a sua utilidade. (Rotular dados manualmente é demorado – e trabalhoso.) Mas o GPT-1 não o fez; treinou principalmente em sem rótulo dados para “aprender” como realizar uma série de tarefas (por exemplo, escrever ensaios).

Muitos especialistas acreditam que não veremos uma mudança de paradigma tão significativa quanto a do GPT-1 tão cedo. Mas, novamente, o mundo também não previu a chegada do GPT-1.

Últimas

Câmeras Waymo capturam imagens de pessoa acusada de supostos cortes de pneus de robotaxi

Um morador de Castro Valley foi acusado na...

SoftBank adquire fabricante de chips de IA do Reino Unido Graphcore

Empresa de chips do Reino Unido Gráficooré foi...

Pesquisadores do Google alertam que a IA está destruindo a internet

Um estudo feito por pesquisadores do Google aponta...

César Lattes, físico e professor brasileiro, é homenageado no Google

Hoje, o Google celebra com um Doodle animado...

Assine

spot_img

Veja Também

Câmeras Waymo capturam imagens de pessoa acusada de supostos cortes de pneus de robotaxi

Um morador de Castro Valley foi acusado na...

SoftBank adquire fabricante de chips de IA do Reino Unido Graphcore

Empresa de chips do Reino Unido Gráficooré foi...

Pesquisadores do Google alertam que a IA está destruindo a internet

Um estudo feito por pesquisadores do Google aponta...

César Lattes, físico e professor brasileiro, é homenageado no Google

Hoje, o Google celebra com um Doodle animado...

O WhatsApp agora permite que empresas enviem códigos de autenticação para usuários na Índia

O WhatsApp agora permite que empresas enviem códigos...
spot_img

Câmeras Waymo capturam imagens de pessoa acusada de supostos cortes de pneus de robotaxi

Um morador de Castro Valley foi acusado na quinta-feira por supostamente cortar os pneus de 17 robotaxis Waymo em São Francisco entre 24...

SoftBank adquire fabricante de chips de IA do Reino Unido Graphcore

Empresa de chips do Reino Unido Gráficooré foi formalmente adquirida pelo SoftBank do Japão.Rumores do acordo abundam há algum tempomas negociações prolongadas e...

Pesquisadores do Google alertam que a IA está destruindo a internet

Um estudo feito por pesquisadores do Google aponta que a IA generativa, a mesma que a gigante de Mountain View está super incentivando,...