タグ

ブックマーク / japan.cnet.com (3)

  • ヤフー、分散表現の学習時間を短縮化するAI技術「yskip」をOSSとして公開

    ヤフーは4月18日、AI・自然言語処理技術のひとつである分散表現の学習時間を短縮化する技術「yskip」をオープンソースソフトウェア(OSS)として公開したと発表した。 Word Similarityタスクのデータセット3種類(WordSim353、MEN、SimLex999)とAnalogyタスクのデータセット2種類(Googleデータ、MSRデータ)を用いた結果 分散表現とは、単語をベクトルで表現する自然言語処理領域のAI技術のひとつ。同技術を用いると、大量のテキストデータからさまざまな単語の関係性を機械学習し、単語同士の意味の相違を機械的に推定できる。同社では、同技術をユーザーの興味関心情報と記事や広告のマッチングの裏側の技術として活用しているという。 ただし、分散表現は、より大量のテキストデータを用いて学習することで精度向上が期待できるが、日々増加し、新たなトレンドも生まれてくる「

    ヤフー、分散表現の学習時間を短縮化するAI技術「yskip」をOSSとして公開
  • ヤフー、膨大な選択肢から適切な解を予測するAI「AnnexML」--オープンソースで公開

    ヤフーは11月15日、数十万の選択肢の中から、適切な解を世界最速かつ高精度に予測するAI技術「AnnexML(アネックスエムエル)」を開発し、オープンソースソフトウェアとして公開したと発表した。 AnnexMLは、ユーザーの膨大なサービス利用データと「そのユーザーがクリックした広告」など、数十万の選択肢との組み合わせを効率的に学習し、サービス利用情報のあるユーザーに対して、どの広告がクリックされやすいかといった有力な候補の組み合わせを予測する。同社では、ECや広告のパーソナライズ機能の精度向上に有効と考え、今後サービスへの応用を検討するという。 なお、同種のビッグデータ分類技術とAnnexMLを比較検証したところ、既存技術の中でさまざまな研究に引用されている「SLEEC(Microsoft Research, India、Indian Institute of Technologyの研究者

    ヤフー、膨大な選択肢から適切な解を予測するAI「AnnexML」--オープンソースで公開
    kidotaka
    kidotaka 2017/11/16
  • インテルとPreferred Networks、深層学習フレームワーク「Chainer」で協業

    インテルとPreferred Networks(PFN)は4月6日、PFNが開発・提供するディープラーニング向けオープンソースフレームワーク「Chainer」の開発で協業すると発表した。 PFNは、IoTにフォーカスした深層学習技術のビジネス活用を目的に、Preferred Infrastructureからスピンオフした企業。Chainerは、Pythonベースのディープラーニング向けフレームワークとして、ユーザーが直感的に複雑なニューラルネットワークを設計できるのが特徴。 今回の協業により、インテルアーキテクチャ上でのChainerの性能向上を目指し、Chainerのアップデートへの継続的な対応、インテルアーキテクチャのアップデートに対するChainer最適化への対応、インテルのGithubでの協業成果の公開、AI・ディープラーニング市場の成長を加速するためのプロモーション活動での協業を

    インテルとPreferred Networks、深層学習フレームワーク「Chainer」で協業
    kidotaka
    kidotaka 2017/04/06
  • 1