タグ

機械学習とdeeplearningに関するymzkeyのブックマーク (2)

  • 自然言語処理の王様「BERT」の論文を徹底解説 - Qiita

    オミータです。ツイッターで人工知能のことや他媒体で書いている記事など を紹介していますので、人工知能のことをもっと知りたい方などは気軽に@omiita_atiimoをフォローしてください! 2018年10月に登場して、自然言語処理でもとうとう人間を超える精度を叩き出した ことで大きな話題となったBERT。それ以降、XLNetやALBERT、DistillBERTなどBERTをベースにしたモデルが次々と登場してはSoTAを更新し続けています。その結果、GLUEベンチマークでは人間の能力が12位(2020年5月4日時点)に位置しています。BERTは登場してまだ1年半程度であるにもかかわらず、被引用数は2020年5月4日現在で4809 にも及びます。驚異的です。この記事ではそんなBERTの論文を徹底的に解説していきたいと思います。BERTの理解にはTransformer[Vaswani, A.

    自然言語処理の王様「BERT」の論文を徹底解説 - Qiita
  • Few-shot Learning : 少ない画像データで学習する【前編】

    GMOグローバルサイン・ホールディングスCTO室の@zulfazlihussinです。 私はhakaru.aiの開発チームのAI開発を担当しております。この記事では、機械学習を使って少ない画像データでも効率的に学習することができるFew-shot Learning手法について述べます。また、複数の情報源(画像⇆テキスト)からZero-shot学習について、興味がある方は、こちらの記事をお読みいただければと思います。 背景 画像解析の分野で一番有名な出来事として、画像認識の精度を争う競技大会、ImageNet Larger Scale Visual Recognition Challenge(ILSVRC)の2012年の大会があります。この大会では、 初めて深層学習を使った機械学習モデルが、他のチームが採用したモデルに10%以上の差をつけて優勝しました。このイベント以来、深層学習を使った画像

    Few-shot Learning : 少ない画像データで学習する【前編】
  • 1