メタの新しいAIモデル、セグメント・エニシング・モデル2(SAM 2)は、ビデオで動く物体をラベル付けし、追跡することができます。これはビデオ編集や分析能力を向上させるものです。前身が画像に限定されていたのに対し、SAM 2のリアルタイムセグメンテーションは技術的な大きな進歩を表します。この機能はAIが動く画像を処理し、フレーム内外で動く要素を区別することを可能にします。セグメンテーションは、複雑な画像の編集を簡単にするために、ピクセルがどの物体に属しているかを決定する過程です。オリジナルのSAMは、サテライト画像を使用した災害救援、細胞画像で皮膚がんを検出、珊瑚礁の分析など、多くのアプリケーションで使用されました。SAM 2はこれらの機能をビデオに拡張し、最近のAIの進化で実現可能になりました。メタは、SAM 2のトレーニング用に50,000本のビデオデータベースを公開し、既に100,000本のビデオを使用してきました。SAM 2は現在無料で公開されているが、ビデオのリアルタイムセグメンテーションには大きなコンピューティング・パワーが必要であり、将来的には無料で提供されなくなる可能性があります。SAM 2は、ビデオ編集を革命化し、シーン内の物体をより簡単に操作し、インタラクティブ・ビデオを実現します。メタは、SAM 2が自動車のコンピュータービジョン・システムのトレーニングに使用されることを想定しています。AI生成ビデオが話題になっている一方で、SAM 2の編集機能はビデオ作成にAIを統合する上でより影響力を持つ可能性があります。他の企業、例えばGoogleやAdobeも、ビデオ要約や編集用のAIツールを開発しており、AIビデオ技術の競争的なランドスケープを示しています。
techradar.com
Meta's new AI model tags and tracks every object in your videos
Create attached notes ...
