AINOW編集部のみかみです。 AI関連のサービスを分かりやすく1つのマップにまとめた、AINOWの人気コンテンツであるサービスマップ。今までにも、「AIサービスマップ」や「to B向け人工知能業界マップ」など情報収集を行うサポートになるマップをいくつか作成してきました。 今回は、チャットボットの開発ができるサービスを分野別にまとめた「チャットボットサービスマップ2019」を公開します。チャットボットの導入を検討している方はぜひご参考ください! 掲載数は、88となっております。(※2019/02/25現在) ※網羅性のあるマップを目指しています。新たに掲載を希望される企業様は、お問い合わせフォームからご連絡ください。(掲載費無料) ▼お問い合わせフォーム https://form.run/@ainow-contact
画像の設定 画像をいくつか用意してAssets に入れます 端末のサイズに適応できるように画像サイズを@2x, @3xに調整しますが、とりあえずはテストとして@2xの画像ファイル名にしておきました コードを記述 画面サイズに応じてボタン位置を変更したい場合は、コードで書いた方が便利です。 UIImage のインスタンスを生成 UIButton のインスタンスを生成 TypeはCustomがデフォルト設定 表示するフレームを設定 ビューへ貼る Button actionを設定 UIButton のaddTarget メソッドを使う UIControlEventTouchUpInside に設定 AspectFitとHorizontal, Verticalの拡大をコードで入れます。なお、ここではSafe Areaを考慮していません。 ViewController.swift import UI
コンセプト コンタクトセンターで利用されている通話録音においては、コンプライアンス管理や顧客との会話を記録する目的もありますが、通話録音データには有益な情報が含まれております。 昨今、AI技術やデジタル分析の進化によって、音声情報から通話応対の品質、顧客の属性情報や感情を分析し新商品の開発やサービス改善に役立てられております。 「 VoiceTracking Server 」は、通話録音データの活用を目的に開発され音声分析・認識を行うためのプラットフォームとしてご利用頂いております。コンタクトセンター業務で欠かすことのできないモニタリングやグループ管理に加え、“顧客の声”を直接分析することで音声コミュニケーションの品質向上、潜在ニーズの発掘などコンタクトセンター運営および企業活動をサポートします。
国立情報学研究所のシン・ワン特任研究員と高木信二特任助教、山岸順一准教授は、自然な音声を手軽に合成できる人工知能(AI)技術を開発した。学習に必要な音声データは約1時間と少ない。ソースコードを無償公開した。ウェブサービスの音声対話機能などへ提案していく。 音声合成で長く使われてきた「ソースフィルター・ボコーダ法」と脳神経回路を模したニューラルネットワーク型の機械学習を組み合わせた。大規模なニューラルネットワーク型の機械学習に比べて学習データを減らし、ボコーダ法の音声の自然さが反映された。 合成音声の品質は5段階の主観評価で4以上。他の手法と比較して劣らなかった。学習用データが1時間程度ですむため、多数の人の声を作りやすい。今後、リアルタイム合成技術の開発を進める。 【国立情報学研究所YouTubeチャンネル】自然な音声を高速に合成可能な新手法を開発~古典的手法にニューラルネットワークを導入
アニプレックスは、テレビアニメ「ソードアート・オンライン」(SAO)に登場するヒロイン「アスナ」をバーチャルアバター化し、最新の音声合成技術を活用して発話する「宣伝隊長アスナ」として展開中。その経緯や狙いを聞いた。 SAOは川原礫氏による小説を原作とした作品。多方面で展開されているなか、10月からはテレビアニメシリーズ最新作となる「ソードアート・オンライン アリシゼーション」を全4クールで放送している。 宣伝隊長アスナは、SAOアリシゼーションを盛り上げる施策として開発されたもの。ソニーが開発したバーチャルアナウンサー「沢村碧」のシステムとしても活用されている「アバターエージェントサービス」をベースに、最新の音声合成技術で再現されたアスナの音声と、Live2Dによるモーショングラフィックでアスナを表現。昨今盛り上がりを見せているバーチャルYouTuberとは異なり、裏側で声や動きを演じてい
(左)手書き数字画像10クラスの「MNIST」という画像データセットにおいて、4層の全結合ネットワークを用いた実験の結果。コンパクト化なしのネットワークから認識精度0.02%の低下で、パラメータ数を83.7%削減可能であることを確認した。(右)一般物体認識のベンチマークとしてよく使われている「CIFAR-10」という画像データセットにおいて、16層の畳み込みニューラルネットワークを用いた実験の結果。認識精度の低下が約1%以内の範囲では、正則化強度を変更することでネットワークのパラメータ数を30~70%程度削減でき、DNNのサイズを柔軟に変更できることを確認した(クリックで拡大) 出典:東芝 スパース化現象が起こる学習条件は3つある。1つ目は、DNNの表現力を高めるために一般的に導入される非線形関数ReLU(Rectified linear unit)を活性化関数として用いる場合だ。2つ目は
聴覚に障害がある人にとって、Skypeで誰かと話をしたり、グループ通話に参加したりするのは難しいことかもしれません。 Microsoftは先ごろ、その困難を少し緩和してくれる機能を発表しました。字幕を表示する機能です。 この機能は、音声通話やビデオ通話にリアルタイムで字幕をつけるもので、相手の話が聞こえにくい人が、話の内容を理解しやすくするためのものです。 20カ国語に対応し、リアルタイムで翻訳もしてくれるので、会話の相手があなたの言語を話さなくても問題ありません。 Image: Pexelsオンにすると、通話中に話していることが字幕になって流れます。字幕にはAIが使われています。完璧とは言えませんが、何もないよりは格段に便利です。 この機能をオンにするには2つの方法があります。 1回の通話だけに使う場合Image: Skype今話している通話だけに字幕が必要な場合、通話中に「+」ボタンを
はじめに 当社にアルバイトに来ていた人(来春に新卒入社の予定)に「pandasを高速化するための情報は無いですか?」と尋ねられました。 このパッケージの使い方は多数の書籍やWebで体系立った記事で書かれています。 しかし、高速化に関しては体系的な情報源が思いつかなかったので、「実際に書いてみて、1つ1つチューニングするしかないです」としか答えられませんでした。 そこで、この方を始め、来春(2019年4月)にデータアナリストまたはデータサイエンティストになる新卒へ向けて、pandasの高速化に関する私の経験をTips集にしてお伝えしたいと思います。 この記事は今後も内容を充実させるために、Tipsを追加していきます。 この記事を読んだ後にできるようになること pandasでレコード数1000万件のデータでも1分以内で完了する前処理が書けるようになります。 その結果、1日中実行し続けなければな
日進月歩の技術の世界ですが、もはや人間とコンピュータによる歌声の違いを識別できないレベルのところまで技術は進化してきたようです。本日、国立大学法人名古屋工業大学の国際音声言語技術研究所と名古屋の大学発ベンチャー企業である株式会社テクノスピーチが共同で「超高音質な歌声を再現するAI歌声合成システム」を発表しました。 これまでVOCALOIDを中心とした歌声合成のシステムがDTMの世界に広がり、ひとつの音楽ジャンルというかひとつの文化を作り上げてきたといっても過言ではありません。しかし、それとは明らかに次元の異なる歌声合成のシステムが登場してきました。ある種コンピュータっぽさ、無機質さが売りでもあったVOCALOIDに対し、今回発表されたのは人間の声質やクセ、歌い方を再現する、まさに人の歌声と区別のつかないレベルの歌声合成。現時点では技術発表であって、まだ製品化はされていませんが、歌声合成技術
はじめに 今までコールセンターへの音声認識システムの導入とかに携わってきました。 音声認識の方式には大きく2種類あります。 バッチ型 音声ファイルを渡すと認識した結果が返ってくる コールセンターの通話録音をテキスト化してビッグデータ分析とかで活用できる Youtube動画の自動字幕とかでも使われている。 リアルタイム型(またはストリーミング型) 喋っている音声がリアルタイムで認識されていく。 コールセンターのスーパーバイザが複数のオペレータの音声をモニタリングしたりする場合に活用できる 最近だとAbemaTVで記者会見の生中継とかでAIポンが使われている で、クラウド型の音声認識APIに関しては以下が4強と言われています。 Google Cloud Speech API Microsoft Azure Bing Speech API IBM Watson Speech to Text Am
日立製作所は会話音声をテキスト化する「音声書き起こし支援サービス」の販売を開始した。雑音が含まれていたり、複数人の音声が重なっていたりしても、話者を識別して、話者ごとに分離したテキストを生成できる。 日立製作所は2018年10月16日、会議や商談などの会話音声をテキスト化する「音声書き起こし支援サービス」の販売を開始した。同年6月27日に発表したAI活用の「チャットボットサービス」に続く、対話型botを活用して業務改革や新たな価値の創出を支援する「デジタル対話サービス」の第2弾と位置付ける。 音声書き起こし支援サービスは、音声認識技術を利用して、会話の音声データをテキストに変換するクラウドサービス。日立製作所独自の2つの技術を用いる。一つは雑音や反響音を除去して認識対象の音声のみを抽出する雑音除去技術。もう一つは複数方向からの音声を別々に認識する音源分離技術。 これらの技術によって、雑音を
この記事は一休.comアドベントカレンダー2018の5日目です。 qiita.com こんにちは。 CTO室の村石です。 一休ではAmazon Connect を導入し、カスタマーサービスの一部コールセンターを新しい体制へと変えました。 今回は導入した Amazon Connect に関して、概要から導入後の運用まで幅広く話をしようと思います。 Amazon Connect とは AWSが提供するクラウド型のCTI*1システムのことで、コールセンターを簡単に作れることが魅力のサービスです。 また、Webサービスになっているため、ブラウザがあれば利用できます。 aws.amazon.com コールセンターではよくある以下のようなことも、少しの設定で実現出来ることは大きな魅力だと思います。 音声ガイダンスを流す 案内で番号をプッシュさせる 特定の担当部署に電話をつなげる 料金については、従量課
この記事は Classi Advent Calendar 2018 の 4日目の記事です。 今年の6月に WWDC18 に参加するために渡米したのをきっかけに、英語の勉強を始めた。 しばらくして10月に受けた TOEIC で895点取ることができたので、どんなことをしてきたかを振り返る。 自分の英語力 tl;dr TOEIC 対策について TOEIC 向けの学習として取り組んだこと 自分の理解できるレベルの英語に触れる 楽しく続ける 実際にやっていること Podcast 聴いている Podcast Netflix 小説とマンガ 英語の技術書 技術ブログ Medium, Quora 洋楽 英語のインタビュー記事や三文記事 HelloTalk ディクテーション 自分の英語力 留学、海外就労の経験なし 大学時代に最後に受けた TOEIC が700点台 WWDC から帰国後、十数年ぶりに受けた7月
AWS 無料利用枠の一環として、Amazon Transcribe の使用を無料で開始できます。Amazon Transcribe の無料利用枠は、最初の文字起こしリクエストを作成した日から 12 か月間利用できます。** 無料利用枠での使用量は、AWS リージョン全体で毎月計算され、自動的に請求額に適用されます。未使用分は持ち越されません。ご利用にあたっての条件が適用されます。詳細については、提供規約をご覧ください。無料使用期限が切れた場合、またはアプリケーションの使用量が無料利用枠を超えた場合は、標準の従量制サービス料金をお支払いいだたきます。 ストリーミング向けとバッチ文字起こし向けの両方の Amazon Transcribe API は、以下に示す段階的な料金に基づいて毎月請求されます。段階的な価格設定の料金や割引率は地域によって異なり、下記のドロップダウンから地域を選択すると適用
IBM Watson® Speech to Text technology enables fast and accurate speech transcription in multiple languages for a variety of use cases, including but not limited to customer self-service, agent assistance and speech analytics. Get started fast with our advanced machine learning models out-of-the-box or customize them for your use case.
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く