A Apple está discretamente gastando milhões em IA para tornar o Siri tão inteligente quanto o ChatGPT

Anúncios

Depois de reportagens sobre o Apple GPT e todo o drama da Siri devido às complexidades do assistente pessoal, A informação compartilhou que Cupertino está gastando milhões de dólares por dia para treinar seus modelos de linguagem grande – LLM, para abreviar.

Com uma pequena equipe de 16 pessoas supervisionada pelo chefe de IA, John Giannandrea (ex-Google), a Apple vem treinando LLM há alguns anos. Como essa tecnologia explodiu com o ChatGPT da OpenAI, Cupertino poderia considerar a adição de algumas formas de chatbots internamente e como produto final.

Anúncios

Essa equipe de IA conversacional é chamada de Modelo Fundamental, e a Apple supostamente criou duas novas equipes para desenvolver modelos de linguagem ou imagem. Uma das equipes pode estar trabalhando em software que gera “imagens, vídeos ou cenas 3D”, enquanto a outra está trabalhando em “pesquisas de longo prazo envolvendo IA multimodal que pode reconhecer e produzir imagens ou vídeos”.

A informação diz que um desses LLMs poderia “eventualmente interagir com clientes que usam AppleCare”. Ao mesmo tempo, a equipe da Siri planeja incorporar esses modelos de linguagem para facilitar muito as integrações complexas de atalhos.

O que é interessante nesta história é que as pessoas da equipe da Apple acreditam que seu modelo de linguagem mais avançado, Ajax GPT, que a Bloomberg já relatou, pode ser melhor que o GPT da OpenAI. 3.5. Embora a outra empresa já esteja trabalhando em soluções melhores, é bom saber que a Apple melhorou drasticamente no campo da IA ​​conversacional.

O obstáculo para Cupertino é que a empresa prefere executar software em dispositivos, o que melhora a privacidade e o desempenho, embora seja impossível oferecer o melhor modelo de aprendizagem de idiomas sem ser baseado na nuvem.

The Information relata: “O Ajax GPT, por exemplo, foi treinado em mais de 200 bilhões de parâmetros, como são conhecidos no jargão da IA. (…) Os parâmetros refletem o tamanho e a complexidade de um modelo de aprendizagem automática; um número maior de parâmetros indica maior complexidade e requer mais espaço de armazenamento e poder de computação. Um LLM com mais de 200 bilhões de parâmetros não caberia razoavelmente em um iPhone.”

Embora a Apple possa estar tentando reduzir esses modelos grandes para caber em um iPhone, talvez tenhamos que esperar um pouco mais para ver algumas dessas iniciativas chegando ao usuário final.

BGR continuará relatando os esforços de IA da Apple e como ela enfrentará o ChatGPT da OpenAI, o Microsoft Bing e o Google Bard.