Metas nye AI-model, Segment Anything Model 2 (SAM 2), kan mærke og spore objekter i en video, mens de bevæger sig, hvilket forbedrer video-redigering og -analyse-funktioner. I modsætning til sin forgænger, som var begrænset til billeder, repræsenterer SAM 2's real-time-segmentation en betydelig teknisk fremgang. Dette muliggør, at AI kan behandle levende billeder og skelne mellem elementer, selv hvis de bevæger sig ud af og tilbage i rammen. Segmentering er processen med at bestemme, hvilke pixel der hører til hvilke objekter, hvilket forenkler redigeringen af komplekse billeder. Den originale SAM muliggjorde flere anvendelser, såsom at analysere koralrev, bistå med katastrofehjælp med satellitbilleder og opdage hudkræft i cellerbilleder. SAM 2 udvider disse funktioner til video, hvilket nyligt blev muligt på grund af fremskridt i AI. Meta har udgivet en database med 50.000 videoer til træning af SAM 2, oven i de 100.000 videoer, der tidligere blev brugt. Selv om SAM 2 for nu er åben og gratis, kræver dens real-time-video-segmentation betydelig beregningskraft, hvilket indikerer, at det måske ikke forbliver gratis uendeligt. SAM 2 kan revolutionere video-redigering ved at gøre det lettere at manipulere med objekter inden for scener og interaktive videoer. Meta forestiller sig, at det bliver brugt til at træne computer vision-systemer for selvstændige køretøjer, hvor præcis objektsporing er afgørende. Trods al den hype om AI-genererede videoer kan SAM 2's redigeringsfunktioner være mere indflydelsesrige i at integrere AI i video-skabelsen. Andre selskaber, som Google og Adobe, udvikler også AI-værktøjer til video-summering og -redigering, hvilket viser et konkurrencelandskab i AI-video-teknologi.
techradar.com
Meta's new AI model tags and tracks every object in your videos
Create attached notes ...
