메타의 새로운 AI 모델인 Segment Anything Model 2(SAM 2)는 비디오에서 움직이는 물체를 레이블링하고 추적할 수 있습니다. 이렇게 하면 비디오 편집 및 분석 기능이 향상됩니다. SAM 2는 실제 시간 세그멘테이션을 통해 AI가 움직이는 이미지를 처리하고 물체를 구별할 수 있습니다. 물체가 프레임에서 나가고 다시 들어올 때도 구별할 수 있습니다. 세그멘테이션은 복잡한 이미지 편집을 쉽게 하는 과정입니다. 원래 SAM은珊瑚초, 재해 구호와 위성 이미지, 세포 이미지에서 피부암을 감지하는 등의 다양한 응용 프로그램에 사용되었습니다. SAM 2는 이러한 기능을 비디오로 확장합니다. 최근 AI의 발전으로 가능해졌습니다. 메타는 SAM 2를 훈련하는 데 사용할 50,000개의 비디오 데이터베이스를 출시했습니다. 이전에 사용된 100,000개의 비디오와 함께입니다. SAM 2는 현재 열려 있고 무료입니다. 그러나 실제 시간 비디오 세그멘테이션은 상당한 컴퓨팅 파워를 필요로 하므로 영원히 무료일지는 알 수 없습니다. SAM 2는 비디오 편집을 혁신할 수 있습니다. 장면 내의 물체를 더 쉽게 조작할 수 있습니다. 또한 상호작용 비디오를 가능하게 합니다. 메타는 SAM 2를 자율 주행 차량에서 컴퓨터 비전 시스템을 훈련하는 데 사용할 계획입니다. 정확한 물체 추적이 중요합니다. 비디오 생성에 AI를 통합하는 데 SAM 2의 편집 기능이 더 큰 영향을 미칠 수 있습니다. 구글, Adobe와 같은 다른 회사는 비디오 요약 및 편집을 위한 AI 도구를 개발하고 있습니다. AI 비디오 기술에서 경쟁적인 풍경을 보여줍니다.
techradar.com
Meta's new AI model tags and tracks every object in your videos
Create attached notes ...
