Apple a utilisé des unités de traitement de tenseurs (TPU) développées par Google au lieu des GPU Nvidia pour construire deux composants clés de l'intelligence Apple, comme le détaille un nouveau document de recherche d'Apple. Le document, mis en évidence par CNBC, révèle qu'Apple a utilisé 2 048 puces TPUv5p et 8 192 processeurs TPUv4 pour la construction de modèles d'IA. L'absence de matériel Nvidia dans le document suggère un choix délibéré pour favoriser la technologie de Google sur celle de Nvidia. Cette décision est significative compte tenu de la dominance de Nvidia sur le marché des processeurs d'IA, où leurs GPU sont connus pour leur performance et leur efficacité.
Contrairement à Nvidia, Google propose ses TPU via des services cloud, obligeant les clients à développer des logiciels au sein de l'écosystème de Google, qui comprend des outils intégrés pour le développement et la mise en œuvre de modèles d'IA. Les ingénieurs d'Apple ont expliqué que les TPU de Google ont permis l'entraînement efficace de grands modèles d'IA sophistiqués, en exploitant la puissance de traitement de grands clusters TPU. Apple prévoit d'investir plus de 5 milliards de dollars dans l'amélioration des serveurs d'IA au cours des deux prochaines années, visant à renforcer ses capacités d'IA et à réduire sa dépendance à l'égard du matériel externe.
Le document aborde également les considérations éthiques dans le développement de l'IA, Apple mettant l'accent sur les pratiques de données responsables et affirmant que aucune donnée utilisateur privée n'a été utilisée pour l'entraînement. Les jeux de données d'entraînement comprenaient des ensembles de données publics, des jeux de données licenciés et des jeux de données open-source, soigneusement sélectionnés pour protéger la vie privée des utilisateurs. Cet article est d'abord apparu sur MacRumors.com.
macrumors.com
Apple Used Google Tensor Chips to Develop Apple Intelligence
Create attached notes ...
