A Apple utilizou Unidades de Processamento de Tensão (TPUs) desenvolvidas pelo Google em vez de GPUs da Nvidia para construir dois componentes críticos da Inteligência Apple, como detalhado em um novo artigo de pesquisa da Apple. O artigo, destacado pela CNBC, revela que a Apple utilizou 2.048 chips TPUv5p e 8.192 processadores TPUv4 para a construção de modelos de IA. A ausência de hardware Nvidia no artigo sugere uma escolha deliberada para favorecer a tecnologia do Google em vez da tecnologia Nvidia, que é amplamente utilizada em GPUs. Esta decisão é significativa, dado o domínio da Nvidia no mercado de processadores de IA, onde suas GPUs são conhecidas por desempenho e eficiência.
Ao contrário da Nvidia, o Google oferece seus TPUs por meio de serviços em nuvem, exigindo que os clientes desenvolvam software dentro do ecossistema do Google, que inclui ferramentas integradas para desenvolvimento e implantação de modelos de IA. Os engenheiros da Apple explicaram que os TPUs do Google permitiram o treinamento eficiente de modelos de IA grandes e sofisticados, aproveitando o poder de processamento de grandes clusters de TPU. A Apple planeja investir mais de $ 5 bilhões em melhorias de servidores de IA nos próximos dois anos, visando fortalecer suas capacidades de IA e reduzir a dependência de hardware externo.
O artigo também aborda considerações éticas no desenvolvimento de IA, com a Apple enfatizando práticas de dados responsáveis e declarando que nenhum dado privado de usuário foi usado para treinamento. Os dados de treinamento consistiam em conjuntos de dados públicos, licenciados e de código aberto, curados para proteger a privacidade do usuário.
macrumors.com
Apple Used Google Tensor Chips to Develop Apple Intelligence
Create attached notes ...
