米Metaは7月29日(現地時間)、動画内のアイテムも識別できるAIモデル「Segment Anything Model 2」(SAM 2)を発表した。コードとモデルの重みを「Apache 2.0」ライセンスの下、GitHubで公開した。 また、SAM 2の構築に使ったデータセット「SA-V」を「CC BY 4.0」ライセンスでMetaのサイトで公開した。このデータセットは、約5万1000本の実際の動画と60万点以上の時空間マスクで構成されているというが、その動画がどこから持ってきたものかは明示されていない。 SAM 2は、昨年4月リリースの「SAM」のアップデート版。SAMは画像内から個々のオブジェクトを選択できるというものだったが、2では動画内のオブジェクトも選択できるようになった。 SAMは既に、科学や医学などの現場で活用されているという。例えば、海洋科学でのソナー画像をセグメント化