KI- und ML-Nachrichten auf Deutsch

Apple verwendete Google-Tensor-Chips, um Apple-Intelligenz zu entwickeln

Apple verwendete Tensor-Verarbeitungseinheiten (TPUs), die von Google entwickelt wurden, anstatt Nvidia-GPUs, um zwei wichtige Komponenten von Apple Intelligence zu bauen, wie in einem neuen Forschungspapier von Apple dargestellt. Das Papier, auf das CNBC hingewiesen hat, zeigt, dass Apple insgesamt 2.048 TPUv5p-Chips und 8.192 TPUv4-Prozessoren für den Bau von KI-Modellen verwendete. Die Abwesenheit von Nvidia-Hardware im Papier deutet auf eine bewusste Entscheidung hin, Googles Technologie Nvidia's weit verbreiteten GPUs vorzuziehen. Diese Entscheidung ist bedeutsam, da Nvidia derzeit im Markt für KI-Prozessoren dominiert, wo ihre GPUs für Leistung und Effizienz bekannt sind. Im Gegensatz zu Nvidia bietet Google seine TPUs über Cloud-Dienste an, was bedeutet, dass Kunden Software innerhalb von Googles Ökosystem entwickeln müssen, das integrierte Tools für die Entwicklung und Bereitstellung von KI-Modellen umfasst. Die Ingenieure von Apple erklärten, dass Googles TPUs es ermöglichten, große und komplexe KI-Modelle effizient zu trainieren, indem sie die Verarbeitungskapazität großer TPU-Cluster nutzten. Apple plant, in den nächsten zwei Jahren über 5 Milliarden Dollar in die Verbesserung von AI-Servern zu investieren, um seine KI-Fähigkeiten zu stärken und die Abhängigkeit von externer Hardware zu reduzieren. Das Papier behandelt auch ethische Erwägungen bei der KI-Entwicklung, wobei Apple verantwortungsvolle Datenpraktiken betont und erklärt, dass keine privaten Nutzerdaten für das Training verwendet wurden. Die Trainingsdaten bestanden aus öffentlich zugänglichen, lizenzierten und quelloffenen Datensätzen, die sorgfältig kuratiert wurden, um die Privatsphäre der Nutzer zu schützen. Dieser Artikel erschien erstmals auf MacRumors.com.
favicon
macrumors.com
Apple Used Google Tensor Chips to Develop Apple Intelligence
Create attached notes ...