会話で発せられる言葉は、抑揚や語気などによって意味合いが変わってくるものです。こうした要素を含めて会話の内容を解析し、込められた感情を可視化するアプリを、MIT(マサチューセッツ工科大学)が発表しました。 腕時計型端末上で会話の内容を分析 サムスンのリストバンド型生体センサー開発用ハード「Simband」を用いて制作されたアプリ。端末が計測した装着者の動きや心拍数、皮膚温度といった生理学的信号と、話された言葉とその語調など、会話を構成するさまざまな要素をAIが分析します。これをもとに、会話の内容がポジティブかネガティブかといった度合いを、5秒おきにリアルタイムで表示。実験動画を見ると、会話の内容に即して感情のグラフが上下する様子がよくわかります。 被験者は腕に端末を装着して会話 楽しいくだりではポジティブ寄り、悲しいくだりではネガティブ寄りにと、会話の流れに応じて感情がグラフ化される 実験
IoT時代のUIはSiriのような会話型に収斂していくのでしょうか。人口知能ブームとともに、注目を集める自然言語処理APIのスタートアップ「Api.ai」のCEOが考える、AIとIoTの未来とは? 今日、人工知能は、消費者、インフルエンサーを問わず、多くの人にとって魅力的なテーマの1つです。今日は、Api.aiのCEO兼共同設立者のIlya Gelfenbeyn氏をインタビューします。大変光栄なことです。Api.aiは、インターネットに接続されたデバイスやアプリ、自然言語理解能力もある会話型UXプラットホームの提供をしています。SitePointをいつも読んでくれている人なら、2016年初めに書かれた、プラットホームに関する話題の口火を切ったApi.aiのシリーズ記事で、サービスのことはすでにご存じかもしれませんね。 Ilya氏は、機械学習や自然言語処理、そして会話型インターフェイスを学ん
一昨日、昨日と2日間にわたって開催された『TechCrunch Tokyo Hackathon 2014』に参加し、賞をいただきました。 上位5チームが発表され、その中での順位は発表されなかったのですが、あとで聞いたところによると、上位5チーム中得票数1位(!)だったとのことです。 参加者120名(160?)の大規模ハッカソンでした。以下ざっくりレポート。 特別参加エンジニア 昨年の同ハッカソンでは"TechTalk"という枠組みで『スキルなし・実績なし 32歳窓際エンジニアがシリコンバレーで働くようになるまで』というタイトルで講演させていただいた縁もあり、TechCrunch Japan編集長の西村さんよりお声がけいただき、今回は「特別参加エンジニア」という枠で参加させていただきました。 増井雄一郎氏、堤修一氏も参加決定、TechCrunch Tokyo Hackathonは空き枠あり!
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く