Apple använde Tensor Processing Units (TPU) utvecklade av Google istället för Nvidia's GPUs för att bygga två kritiska komponenter av Apple Intelligence, som detaljerats i en ny forskningsrapport av Apple. Rapporten, uppmärksammad av CNBC, avslöjar att Apple använde 2 048 TPUv5p-chip och 8 192 TPUv4-processorer för AI-modellbyggnad. Frånvaron av Nvidia-hårdvara i rapporten tyder på ett medvetet val att föredra Googles teknik framför Nvidia's allmänt använda GPUs. Detta beslut är betydelsefullt med tanke på Nvidia's dominans på AI-processormarknaden, där deras GPUs är kända för prestanda och effektivitet.
Till skillnad från Nvidia erbjuder Google sina TPUs genom molntjänster, vilket kräver att kunder utvecklar programvara inom Googles ekosystem, som inkluderar integrerade verktyg för AI-modellutveckling och distribution. Apples ingenjörer förklarade att Googles TPUs möjliggjorde effektiv träning av stora, avancerade AI-modeller, genom att utnyttja bearbetningskraften i stora TPU-kluster. Apple planerar att investera över 5 miljarder dollar i AI-serverförbättringar under de närmaste två åren, med målet att stärka sina AI-kapaciteter och minska beroendet av extern hårdvara.
Rapporten behandlar också etiska överväganden vid AI-utveckling, med Apple betonande ansvarsfulla datahanteringsprinciper och påstående att ingen privat användardata användes för träning. Träningsdata bestod av offentligt tillgängliga, licensierade och öppna källkodsdataset, sammanställda för att skydda användarnas integritet.
macrumors.com
Apple Used Google Tensor Chips to Develop Apple Intelligence
Create attached notes ...
