2024年7月12日に開催された「try! Swift Tokyo WWDC Recap 2024」で発表した内容です。 スライドはこちら: 以下、発表資料を記事として再構成したものになります。登壇後に調査した内容も追記しています。 前段の話 Core MLについてキャッチアップする意味あるの? WWDC24といえば 開発者とApple Intelligence App Intentsでアプリの機能をexposeしておけば、賢くなったSiriがよしなに呼び出してくれる → 受動的/間接的 Writing Tools, Image Playground, Genmoji等のAPIも利用可能 → 標準UIを利用 こういう感じで使えるAPIではない ビルトインMLフレームワーク → かなり充実してきた とはいえ、標準MLフレームワークがサポートしてない分野はまだまだたくさんある 汎用のセグメンテ
![【iOS 18】Core MLのアップデート](https://cdn-ak-scissors.b.st-hatena.com/image/square/2efb0f7dcaa1fa627f603457a469a9f48738c711/height=288;version=1;width=512/https%3A%2F%2Fres.cloudinary.com%2Fzenn%2Fimage%2Fupload%2Fs--T_V-ym7E--%2Fc_fit%252Cg_north_west%252Cl_text%3Anotosansjp-medium.otf_55%3A%2525E3%252580%252590iOS%25252018%2525E3%252580%252591Core%252520ML%2525E3%252581%2525AE%2525E3%252582%2525A2%2525E3%252583%252583%2525E3%252583%252597%2525E3%252583%252587%2525E3%252583%2525BC%2525E3%252583%252588%252Cw_1010%252Cx_90%252Cy_100%2Fg_south_west%252Cl_text%3Anotosansjp-medium.otf_37%3AShuichi%252520Tsutsumi%252Cx_203%252Cy_121%2Fg_south_west%252Ch_90%252Cl_fetch%3AaHR0cHM6Ly9saDMuZ29vZ2xldXNlcmNvbnRlbnQuY29tL2EtL0FPaDE0R2pHcm5LNC1XQ2l0MVBwSUFqSTFFODhnLXRFZUd6UmRfVkcwNlZwRmc9czI1MC1j%252Cr_max%252Cw_90%252Cx_87%252Cy_95%2Fv1627283836%2Fdefault%2Fog-base-w1200-v2.png)