Distributed word representations (word embeddings) have recently contributed to competitive performance in language modeling and several NLP tasks. In this work, we train word embeddings for more than 100 languages using their corresponding Wikipedias. We quantitatively demonstrate the utility of our word embeddings by using them as the sole features for training a part of speech tagger for a subs
コロナ社より出版している「機械翻訳」のサポートサイトです。コメント等、 tarow@google.com までお願い致します。 二刷出ました。訂正のページを大幅に更新しました。HMMアライメントモデルに訂正があります。2014/1/22 発刊しました。ガイドのページを作成しました。どこから読めばいいのか迷った場合は、参考にしてください。日本語の資料を更新しました。2014/1/下旬 発刊予定。訂正のページを更新。 1 機械翻訳 1.1 歴史 1.2 知識に基づく機械翻訳 1.3 用例に基づく機械翻訳 1.4 統計的機械翻訳 1.5 まとめ 2 機械翻訳の評価 2.1 機械翻訳を評価するとは 2.2 主観評価 2.3 自動評価 2.4 評価結果に基づく差分の検出 2.5 まとめ 3 言語モデル 3.1 n-gramモデルの基礎 3.2 n-gramモデルの平滑化 3.3 言語モデルの評価 3
Not your computer? Use a private browsing window to sign in. Learn more about using Guest mode
Not your computer? Use a private browsing window to sign in. Learn more about using Guest mode
Not your computer? Use a private browsing window to sign in. Learn more about using Guest mode
Not your computer? Use a private browsing window to sign in. Learn more about using Guest mode
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く