AI- ja ML-uutisia suomeksi

Omena käytti Google Tensor -piirejä kehittääkseen Apple Intelligence -teknologian

Omen käytti Googlen kehittämiä Tensor Processing Units (TPU) -prosessoreita Nvidia:n GPU:iden sijaan Apple Intelligence -projektin kriittisten osien rakentamiseen, kuten Apple:n uudessa tutkimuspaperissa esitellään. Paperi, jota CNBC on korostanut, paljastaa, että Apple käytti 2 048 TPUv5p-piiriä ja 8 192 TPUv4-prosessoria AI-mallien rakentamiseen. Nvidia:n laitteiden puuttuminen paperista osoittaa tietoisen valinnan Googlen teknologian puolesta Nvidia:n laajalti käytettyjen GPU:iden sijaan. Tämä päätös on merkittävä, koska Nvidia on hallitseva markkinaosapuoli AI-prosessorimarkkinoilla, missä heidän GPU:nsa ovat tunnettuja suorituskyvystä ja tehokkuudesta. Toisin kuin Nvidia, Google tarjoaa TPU:nsa pilvipalveluissa, mikä vaatii asiakkaiden kehittävän ohjelmistoa Googlen ekosysteemin sisällä, joka sisältää integroidut työkalut AI-mallien kehittämiseen ja käyttöönottoon. Apple:n insinöörit selittivät, että Googlen TPU:t mahdollistivat suurten, monimutkaisten AI-mallien tehokkaan kouluttamisen hyödyntämällä suurten TPU-klustereiden prosessointikykyä. Apple aikoo investoida yli 5 miljardia dollaria AI-palvelintehostamiseen seuraavien kahden vuoden aikana, pyrkimättä vahvistamaan AI-kyvykkyyksiään ja vähentämään riippuvuutta ulkoisesta laitteistosta. Paperi käsittelee myös AI-kehityksen eettisiä kysymyksiä, kun Apple korosti vastuullisia tietokäytäntöjä ja totesi, että ei käytetty yksityisiä käyttäjätietoja kouluttamiseen. Koulutusaineistona olivat julkisesti saatavilla, lisensoidut ja avoimen lähdekoodin aineistot, jotka on koottu suojata käyttäjien yksityisyyttä.
favicon
macrumors.com
Apple Used Google Tensor Chips to Develop Apple Intelligence
Create attached notes ...