エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
アップル、アクセシビリティー機能を強化へ--機械学習などを活用
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
アップル、アクセシビリティー機能を強化へ--機械学習などを活用
Appleは米国時間5月16日、Global Accessibility Awareness Dayを前に、認知、視覚、聴覚、身体機能のア... Appleは米国時間5月16日、Global Accessibility Awareness Dayを前に、認知、視覚、聴覚、身体機能のアクセシビリティーを高めることを目的に設計された、「iPhone」「iPad」「Mac」向けの複数の新機能をプレビューした。これらの機能は、2023年後半に提供される予定だ。 そのうちの1つである「Live Speech」は、言葉を発せない人やさまざまな言語パターンや障害を持つ人を対象とした機能で、ユーザーが言いたいことを文字で入力すると、それを音声で伝えてくれるというもの。この機能は、対面での会話のほか、電話や「FaceTime」での通話でも使用できる。iPhone、iPad、Macで動作し、端末に内蔵されている任意の音声(「Siri」など)を使用する。例えば、「はじめまして。私は...です」のように自己紹介でき、「ブラックコーヒーをいただけますか」など