タグ

ブックマーク / wirelesswire.jp (5)

  • 加熱するLLM開発競争に冷や水、オープンモデルの組み合わせだけでGPT-4o越えの事実

    加熱するLLM開発競争に冷や水、オープンモデルの組み合わせだけでGPT-4o越えの事実 2024.06.21 Updated by Ryo Shimizu on June 21, 2024, 18:19 pm JST 世界中の企業や政府が狂ったようにNVIDIAのGPUを買い漁る流れはそろそろ潮時かもしれない。 いくつかの興味深い事象が起きているからだ。 昨日発表されたKarakuri社のLLM、「KARAKURI LM 8x7B Instruct v0.1」は、非常に高性能な日語LLMだ。Karakuri社は今年の一月にも非常に高性能な70Bモデルを引っ提げて業界に旋風を巻き起こした。この最新のLLNは、日語向けオープンLLMとしては初の「命令実行」チューニングを施されている。それだけでなく、RAGと呼ばれる、複数の知識を組み合わせてより正解に近い答えを導く技術や、Function

    加熱するLLM開発競争に冷や水、オープンモデルの組み合わせだけでGPT-4o越えの事実
    endor
    endor 2024/06/22
  • 1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も

    1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も 2024.02.28 Updated by Ryo Shimizu on February 28, 2024, 16:46 pm JST 2月は中国では春節というお正月があり、春節にはみんな休む。 それもあってか、12月から1月にかけて怒涛の論文発表が行われて毎日「デイリーAIニュース」を配信している筆者は忙殺されていた。 春節中にはOpenAIがSoraを、GoogleがGemini1.5を発表したのは、その合間を縫ってのことだった。もはやAI最前線の戦いは研究が行われる場所の文化や風土に影響を受けるところまで来ている。 そして春節もあけた今週、さっそくAlibabaがとんでもないトーキングヘッドモデルを引っ提げて登場したかと思えば、Microsoft中国チームがとてつもないLLMをリリース

    1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も
    endor
    endor 2024/02/28
  • OpenAI/GPT-3のプロンプトプログラミングとは何か?実際にやってみる

    OpenAI/GPT-3のプロンプトプログラミングとは何か?実際にやってみる 2021.04.27 Updated by Ryo Shimizu on April 27, 2021, 08:05 am JST GPT-3は、イーロン・マスクMicrosoftらが支援するOpenAIという組織によって公開された世界最高峰の自然言語AIと言われている。 膨大なパラメータを持ち、インターネット上のありとあらゆる文字情報を学習したもので、あまりに自然な文章が作れてしまうので一般公開が制限されるという、いわく付きのAIだ。 GPT-3を利用したアプリケーションには「プロンプトプログラミング」という手法が使われている。 これを使えば、欲しいプログラムが簡単に書けるのである。 これは非常に画期的なパラダイム(考え方)で、「プログラミング」という概念を大きく広げるものだと言える。 そこで「プログラミング

    OpenAI/GPT-3のプロンプトプログラミングとは何か?実際にやってみる
    endor
    endor 2021/04/28
  • 貧富格差を拡大する方向に進んできた日本の税制

    貧富格差を拡大する方向に進んできた日の税制 人と技術と情報の境界面を探る #011 2017.07.10 Updated by Shinya Matsuura on July 10, 2017, 07:00 am JST 資主義社会では必然的に貧富格差は拡大する――トマ・ピケティは「21世紀の資」でそのように主張し、是正策として全世界的な資に対する累進課税を主張した。多数の国家が強調して資に対して課税する――非常に困難であることは明白だが、ピケティは「それ以外の方法はない」とする。 しかしながら、既存の税制の中で貧富格差の拡大を防ぐことはできないのだろうか。連載の第9回で、2014年における日の税引き前所得のジニ係数は0.5704だったが、税引き後の実質所得のジニ係数は0.3759だったと書いた。明らかに既存の税制は貧富格差拡大への歯止めとなっている。ならば、その機能を強化す

    貧富格差を拡大する方向に進んできた日本の税制
    endor
    endor 2019/02/07
  • 深層学習を根底から覆すカプセルネットワークの衝撃

    深層学習を根底から覆すカプセルネットワークの衝撃 2018.03.21 Updated by Ryo Shimizu on March 21, 2018, 12:24 pm JST 現在の深層学習ブームのきっかけを作ったのが、トロント大学のジェフリー・ヒントン教授であることには誰も疑問を抱かないでしょう。 ヒントン教授らのグループはそれまで目覚ましい成果がなかなか出なかった画像認識という分野に深層畳み込みニューラルネットワークという新しいアイデアで取り込み、目覚ましい成果を挙げたことで、Googleはヒントン教授の設立した企業DNNresearchを買収し、今のディープラーニングブーム旋風が世に巻き起こりました。 だいたい、この手のニューテクノロジーブームというのは、2、3年で落ち着くのが常です。 しかし、稀にブームで終わらずに物のイノベーションになる技術があります。 たとえばモバイル・

    深層学習を根底から覆すカプセルネットワークの衝撃
    endor
    endor 2018/03/22
  • 1