In the past few years we have seen the meteoric appearance of dozens of foundation models of the Transformer family, all of which have memorable and sometimes funny, but not self-explanatory, names. The goal of this paper is to offer a somewhat comprehensive but simple catalog and classification of the most popular Transformer models. The paper also includes an introduction to the most important a
xtech.nikkei.com 中田敦さんが厳しい論調の文章を書いている。 これに対して、楠正憲さんが「自動運転と違って人命に関わる訳でもなく」と反応しているが、正直これには驚いた。楠正憲さんも2016年の WELQ 騒動を知らないわけはあるまい。検索結果は人命にかかわると言えるのではないか。 この騒動を機に、医師会やジャーナリスト団体が主催する「検索に関する勉強会」に講師として呼ばれる機会がとても増えました。そのとき、「検索エンジンにあがっている誤った情報を患者が信じ込んでしまい、こんなに大変なことが起きている」と、苦しんでいる当事者を目の当たりにしたんです。まるで私がGoogleの中の人間かのように非難を浴びたこともありました。 辻正浩氏が語る、SEOに携わる者の責務と未来 - Marketeer(マーケティア) ワタシの意見は、「この問題を過小評価している人が多すぎる」という星暁雄
OpenAIはGPT-3の次の研究を始めています. 世間がGPT-3のデモに湧き上がる中,OpenAIはScaling Lawに関する2本の論文をひっそりと公開しました. Scaling Lawを一言で説明するなら「Transformerの性能はたった3つの変数のべき乗則に支配されている」というものです. Scaling Lawはそれ単体だけなら興味深い話で終わるかもしれません.実際に英語圏でもあまり話題にあがっていません.しかし,この法則の本当の凄さに気づいている研究者もいて,なぜ話題にならないのか困惑しています. I am curious why people are not talking more about the OpenAI scaling law papers. For me, they seem very significant. What I heard so far:
こんにちは。社内データサイエンスチームYAMALEXの@Ssk1029Takashiです。 最近はChatGPTが出て注目を浴びたり、BingにもChatGPTのように質問応答してくれるAIが搭載されるなど、OpenAIのGPTモデルが世の中を騒がせています。 私もChatGPT使ってみましたが、受け答え自体は人が書いていた文章と遜色なく、文章の自動生成もここまで来たか。。という感じでした。 そんなChatGPTの特徴の一つとして、回答には時々嘘が含まれるというものがあります。 ChatGPT自体は知識を持っているわけではないので、学習データにないことなどはそれっぽいけどでたらめな回答を返してしまいます。 ただし、最近追加されたBingのGPTでは、ChatGPTよりもはるかに正確な回答が返ってくるように感じます。 画面を見ると回答の根拠となっている詳細情報が出ています。 ここから推測する
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く