スマートフォン、タブレット、パソコンとユーザーの距離を縮め、生産性を大幅に高める絶妙の仕掛け。 アップルが何年も前から機械学習や深層学習のエンジニアを多数雇用していたことは周知の事実だが、これまでその成果は各製品の限られた機能でしか確認することはできなかった。 動画から文字を認識、抽出する機能や被写体を自動的に切り抜く機能、多重露出した上で合成したかのような、広いダイナミックレンジを捉えた写真、ユーザーの行動を予測した上で必要な情報を適切に通知するなど、それがAIの仕業であると強く意識しない範囲で各デバイスの使い勝手を向上させる部分に、アップルはAI技術開発を行なってきていると思われてきた。 筆者が現地に招かれ取材中の開発者向け会議「WWDC 2024」でも、そうした技術の一部が披露されているが、もっとも驚きをもたらしたのは、アップルが独自に開発したLLM(大規模言語モデル)を元にした機能