El nuevo modelo de IA de Meta, Segment Anything Model 2 (SAM 2), puede etiquetar y seguir objetos en un video mientras se mueven, lo que mejora las capacidades de edición y análisis de video. A diferencia de su predecesor, que estaba limitado a imágenes, la segmentación en tiempo real de SAM 2 representa un avance técnico significativo. Esta capacidad permite que la IA procese imágenes en movimiento y distinga entre elementos, incluso si se mueven fuera y vuelven a entrar en el marco. La segmentación es el proceso de determinar qué píxeles pertenecen a qué objetos, simplificando la edición de imágenes complejas. El SAM original facilitó varias aplicaciones, como analizar arrecifes de coral, ayudar en la ayuda en caso de desastre con imágenes satelitales y detectar el cáncer de piel en imágenes celulares. SAM 2 amplía estas capacidades a video, lo cual se hizo posible recientemente debido a los avances en la IA. Meta ha lanzado una base de datos de 50,000 videos para entrenar a SAM 2, además de los 100,000 videos utilizados anteriormente. Aunque SAM 2 está actualmente abierto y gratuito, su segmentación de video en tiempo real requiere una gran potencia de cálculo, lo que indica que tal vez no permanezca gratuito indefinidamente. SAM 2 puede revolucionar la edición de video al permitir la manipulación más fácil de objetos dentro de las escenas y videos interactivos. Meta imagina su uso en la formación de sistemas de visión por computadora para vehículos autónomos, donde la precisión en el seguimiento de objetos es crucial. A pesar del hype alrededor de los videos generados por IA, las capacidades de edición de SAM 2 podrían ser más influyentes al integrar la IA en la creación de video. Otras empresas, como Google y Adobe, también están desarrollando herramientas de IA para la resumen y edición de video, mostrando un panorama competitivo en la tecnología de video de IA.
techradar.com
Meta's new AI model tags and tracks every object in your videos
Create attached notes ...
