Para construir os modelos de base de IA da Apple, os engenheiros do Google usaram seu próprio software de estrutura com uma variedade de hardwares
O presidente-executivo da Apple, Tim Cook, anunciou em conferência na segunda-feira (10) um acordo com a OpenAI para incluir seu poderoso modelo de inteligência artificial (IA) como parte de sua assistente de voz Siri.
Mas nas letras miúdas de um documento técnico que a Apple publicou após o evento, a empresa deixa claro que o Google, da Alphabet, surgiu como outro participante nos esforços da Apple para recuperar o atraso no campo de IA.
Para construir os modelos de base de IA da Apple, os engenheiros do Google usaram seu próprio software de estrutura com uma variedade de hardwares, especificamente suas próprias unidades de processamento gráfico (GPUs) e chips disponíveis apenas na nuvem do Google, chamados de unidades de processamento tensorial (TPUs).
O Google tem construído TPUs por cerca de dez anos e discutido publicamente duas versões de seus chips de quinta geração que podem ser usados para treinamento de IA; a versão de desempenho da quinta geração oferece uma performance competitiva sobre os chips de IA H100 da Nvidia, segundo o Google.
O Google anunciou em sua conferência anual de desenvolvedores que uma sexta geração será lançada este ano.
Os processadores são projetados especificamente para executar aplicações de IA e treinar modelos, e o Google tem construído uma plataforma de hardware e software de computação em nuvem em torno deles.
A Apple e o Google não responderam imediatamente aos pedidos de comentário.
A Apple não discutiu o grau de dependência dos chips e do software do Google em comparação com o hardware da Nvidia ou de outros fornecedores de IA.
No entanto, usar os chips do Google normalmente exige que o cliente compre acesso a eles por meio de sua divisão de nuvem, da mesma forma que os clientes compram tempo de computação da AWS, da Amazon.com ou Azure, da Microsoft.