AI og ML nyheder på dansk

Apple brugte Google Tensor-chips til at udvikle Apple Intelligence

Apple brugte Tensor Processing Units (TPUs) udviklet af Google i stedet for Nvidia's GPUs til at bygge to kritiske komponenter af Apple Intelligence, som detaljeret i en ny forskningspapir af Apple. Papiret, højlightet af CNBC, afslører, at Apple anvendte 2.048 TPUv5p-chips og 8.192 TPUv4-processorer til AI-modelkonstruktion. Fraværet af Nvidia-hardware i papiret antyder en bevidst valg til at foretrække Googles teknologi over Nvidia's bredt anvendte GPUs. Dette valg er betydningsfuldt, given Nvidia's dominans på AI-procesormarkedet, hvor deres GPUs er kendt for ydeevne og effektivitet. I modsætning til Nvidia tilbyder Google sine TPUs gennem cloud-tjenester, hvilket kræver, at kunderne udvikler software inden for Googles økosystem, som omfatter integrerede værktøjer til AI-modeludvikling og -udførelse. Apples ingeniører forklarede, at Googles TPUs muliggjorde effektiv træning af store, avancerede AI-modeller, der udnyttede processorkraften i store TPU-klustre. Apple planlægger at investere over 5 milliarder dollars i AI-serverforbedringer de næste to år, med henblik på at styrke sine AI-kapaciteter og mindske afhængigheden af ekstern hardware. Papiret omhandler også etiske overvejelser i AI-udvikling, med Apple understreger ansvarlige data-praksisser og erklærer, at ingen private brugerdata blev brugt til træning. Træningsdata bestod af offentligt tilgængelige, licenserede og open-source-datasets, kurateret for at beskytte brugerprivatliv.
favicon
macrumors.com
Apple Used Google Tensor Chips to Develop Apple Intelligence
Create attached notes ...