タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

NICTに関するtnalのブックマーク (3)

  • NICT BERT 日本語 Pre-trained モデル

    概要 このページでは、日Wikipediaを対象に情報通信研究機構 データ駆動知能システム研究センターで事前学習を行ったBERTモデルをクリエイティブ・コモンズ 表示 4.0 国際ライセンス (CC BY 4.0)のもとで公開しています。 BERTモデル [1] の学習では、バッチサイズやステップ数を増やすことで性能が向上することが報告されています [2]。そこでページのモデルでは、[2] のRoBERTa-500Kと同等の計算量となるよう、ステップ数を [1] と同様に100万に保ちつつ、バッチサイズを [1] の16倍の4,096にして学習を行いました。 作成したBERTモデルの評価として、NICTで作成した (fine-tuning用) 学習データと評価データ (これらのデータは大規模Web情報分析システムWISDOM X、対災害SNS情報分析システムDISAANA、災害状況要

    tnal
    tnal 2020/03/13
  • 多言語音声翻訳コンテスト

    新型コロナウィルス感染拡大の状況を鑑み、「多言語音声翻訳コンテスト(第3回)」の最終審査会をオンラインでの実施に変更しました。(詳細は、一次審査通過者に別途連絡いたします) MESSAGE コトバは、伝わる。 言葉の壁がない世界を想像する。 世界中の人と自由に コミュニケーションが取れて 笑い合えるステキな世界。 みんなの想像を実現させよう。 ここから始まる新しい世界。 それは遠くない未来の話。 新しいコトバの夜明けが始まる。

    多言語音声翻訳コンテスト
    tnal
    tnal 2018/11/22
  • みんなの自動翻訳@TexTra®

    便利アプリや当サイトへのお問い合わせは、ログイン後に「質問・要望」からご投稿ください。 メンテナンス等のお知らせは @minhonMTをフォローしてください 〇商用利用に関するお問い合わせは、NICTから自動翻訳エンジンの技術移転を受けている以下の法人様(※)までお願いします。 ・マインドワード株式会社様 https://www.mindword.jp/ ・株式会社川村インターナショナル様 https://www.k-intl.co.jp/ ・株式会社十印様 https://to-in.com/ ・丸星株式会社様 http://www.maruboshi.co.jp/ ・株式会社みらい翻訳様 https://miraitranslate.com/ ・凸版印刷株式会社様 https://solution.toppan.co.jp/newnormal/service/PharmaTra.htm

    tnal
    tnal 2014/06/30
  • 1