Metan uusi tekoälymalli, Segment Anything Model 2 (SAM 2), voi merkitä ja seurata objekteja videossa niiden liikkuessa, mikä parantaa videoeditointi- ja analyysiominaisuuksia. Edeltäjänsä tavoin, jota rajoittivat kuvat, SAM 2:n reaaliaikainen segmentointi edustaa merkittävää teknistä edistystä. Tämä kyky sallii tekoälyn prosessoida liikkuvat kuvat ja erottaa elementit, vaikka ne liikkuvat ruudun ulkopuolelle ja takaisin. Segmentointi on prosessi, jossa määritetään, mihin objekteihin kuvapisteet kuuluvat, yksinkertaisten kompleksisten kuvien editointia. Alkuperäinen SAM mahdollisti eri sovellukset, kuten koralliriuttojen analysoinnin, katastrofien helpimisen satelliittikuvien avulla ja ihon syövän havaitseminen solukuvissa. SAM 2 laajentaa nämä ominaisuudet videoihin, mikä on tullut mahdolliseksi vastikään tekoälyn edistysten ansiosta. Meta on julkaissut 50 000 videon tietokannan SAM 2:n kouluttamiseksi, lisäksi jo aiemmin käytettyihin 100 000 videoon. Vaikka SAM 2 on tällä hetkellä avoin ja ilmaiseksi, sen reaaliaikainen videosegmentointi vaatii merkittävää laskentatehoa, mikä osoittaa, että se ei ehkä jää ilmaiseksi loputtomiin. SAM 2 voi vallata videoeditoinnin, sallien helpomman objektien manipuloinnin kohtauksissa ja interaktiivisissa videoissa. Meta näkee sen käytön tietokoneen näköjärjestelmien kouluttamisessa itsenäisissä ajoneuvoissa, missä objektiiden tarkka seuranta on oleellista. Vaikka AI-luotujen videoiden ympärillä on paljon hypeä, SAM 2:n editointiominaisuudet voivat olla enemmän vaikuttavia AI:n integroimisessa videoon. Muita yrityksiä, kuten Google ja Adobe, kehittävät myös AI-työkaluja videoiden tiivistämiseksi ja editoimiseksi, osoittaen kilpailevan maiseman AI-videoteknologiassa.
techradar.com
Meta's new AI model tags and tracks every object in your videos
Create attached notes ...
