日本マイクロソフトが11月8日~9日に開催した開発者向けイベント「Microsoft Tech Summit 2017」では、講演の日本語音声をリアルタイム機械翻訳して英語字幕を表示していた。もちろん翻訳エンジンはマイクロソフト自慢の「Microsoft Translator」を使っているのだが、日本語音声認識の部分は国産のサードパーティー製だ。 イベントで使用したのは、富士通ソーシアルサイエンスラボラトリ(富士通SSL)が販売するリアルタイム自動翻訳システム「FUJITSU Software Live Talk」。発話者の発言を音声認識・多言語翻訳して、リアルタイムに字幕を配信する(今回のイベントでは字幕を壇上のスライドに表示していたが、字幕を遠隔地の複数端末に同時配信することも可能)。日本語、英語、中国語など全19言語間の音声認識・自動翻訳に対応している。 Live Talkでは、多言
#Cognitive Serviceについて とても便利な世の中になりました。MicrosoftからAzureのサービスの1つとしてCognitive Service APIがプレビュー版で公開されています。これらを使って感情などをスカウター(?)風に表示するHoloLensアプリを作ってみました。 顔検出している部分の左側に年齢と性別(実は情報とれていない)と右下付近に8つの感情値、左下に画像からのタグ情報が返っています。 タグ情報は「室内」、「コンピュータ」、「ラップトップ」などなどが出てきています。 Cognitive Service APIは3種類。それぞれ無料で利用できますが単位時間当あたりのトラフィック量が決まっています。それでも十分遊べますよ。 Face API (preview) 顔の輪郭や目の位置など特徴点をデータとして抽出することができるAPI。 無料で利用可能なリソー
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く